Hasta ahora, la mayoría de la gente se encuentra con robots en las páginas de las historias de ciencia ficción. (Sin contar los que pueden entregar comida en los campus universitarios o hacerte un café con leche). Pero en un futuro no muy lejano, interactuar con robots será aún más común en el mundo real. Cuando eso suceda, los robots necesitarán habilidades sociales para interactuar adecuadamente con los humanos.

Aún así, sorprendentemente se ha hecho poco trabajo para asegurarse de que los robots puedan socializar, incluso en un nivel básico. Pero un equipo de investigadores del MIT asumió el desafío: los científicos desarrollaron un marco para la robótica que incorpora interacciones sociales, lo que permite que las máquinas entiendan cómo ayudamos, o dificultamos, a nuestros compañeros humanos.

“Los robots vivirán en nuestro mundo lo suficientemente pronto, y realmente necesitan aprender a comunicarse con nosotros en términos humanos”, dice Boris Katz, director del Grupo InfoLab en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT y uno de los autores del estudio. en un comunicado de prensa “Necesitan entender cuándo es el momento de ayudar y cuándo es el momento de ver qué pueden hacer para evitar que algo suceda”.

Dentro del nuevo marco de los científicos, pudieron definir tres tipos de robots: Los robots de nivel 0 solo tienen objetivos físicos y no pueden razonar socialmente. Los robots de nivel 1, por el contrario, tienen objetivos tanto físicos como sociales, pero asumen que otros robots solo tienen objetivos físicos. Y los robots de nivel 2 tienen objetivos físicos y sociales, y también asumen que otros robots también tienen ambos. Los científicos especulan que estos bots de nivel superior son los que ya funcionan bien con otros robots, y también podrían funcionar bien con humanos.

Para probar este marco, los investigadores crearon un entorno simulado en el que un robot observa a otro, adivina los objetivos del otro robot y luego elige ayudar u obstaculizar al otro robot según sus propios objetivos.

El equipo creó 98 escenarios diferentes en los que los agentes robóticos virtuales se ayudaron o se obstaculizaron entre sí en función de las conjeturas sobre los objetivos del otro robot, y luego combinaron esos objetivos con los suyos. Más tarde, cuando los humanos vieron videos de los robots interactuando, representados como una serie de animaciones por computadora, sus predicciones de los objetivos de los robots coincidieron en gran medida con las predicciones que los robots hicieron entre sí.

Katz dice que este experimento es un paso pequeño pero importante para enseñar a los robots a reconocer los objetivos de los humanos y relacionarse con los humanos. “Este es un trabajo muy temprano y apenas estamos arañando la superficie”, dice Katz en el comunicado de prensa, “pero siento que este es el primer intento muy serio de comprender lo que significa que los humanos y las máquinas interactúen socialmente”.

¿Una IA más amable?

Además de entrenar robots, esta investigación puede tener usos más allá de la inteligencia artificial. Andrei Barbu, uno de los autores del estudio y científico investigador del Centro de cerebros, mentes y máquinas del MIT, señala que no poder cuantificar las interacciones sociales crea problemas en muchas áreas de la ciencia.

Por ejemplo, a diferencia de la facilidad con la que podemos medir con precisión la presión arterial o el colesterol, no existe una forma cuantitativa de determinar el nivel de depresión de un paciente o de evaluar con precisión dónde se encuentra un paciente en el espectro del autismo. Pero debido a que, al menos hasta cierto punto, tanto la depresión como el autismo implican un deterioro social, los modelos computacionales como este podrían proporcionar puntos de referencia objetivos para evaluar el desempeño social humano y pueden facilitar el desarrollo y la prueba de medicamentos para estas afecciones, dice Barbu.

Un problema bien documentado en el entrenamiento de inteligencia artificial es que entrenar modelos simplemente dándoles grandes cantidades de datos da como resultado una inteligencia artificial muy poderosa, pero también tiende a producir una IA que es sexista y racista. El equipo del MIT cree que su enfoque podría ser una forma de evitar ese problema. “Los niños no salen de sus familias con la idea de que el color de piel de sus padres es superior al de todos los demás solo porque el 95 por ciento de sus datos provienen de personas con ese color de piel”, dice Barbu, “pero eso es exactamente lo que estos concluyen los modelos a gran escala”.

Al aprender a estimar los objetivos y las necesidades de los demás, en lugar de simplemente hacer asociaciones e inferencias basadas en enormes cantidades de datos, este nuevo método de entrenamiento de robots podría eventualmente crear una IA que esté mucho más alineada con los intereses humanos. En otras palabras, podría crear una IA más amable.

Mientras tanto, el equipo planea hacer que los entornos simulados sean más realistas, incluidos algunos que permitirían a los robots manipular objetos domésticos. Un día, cuando un robot sea su compañero de trabajo, el limpiador de su casa y posiblemente su cuidador, es posible que desee que pueda relacionarse con usted como persona. Esta investigación es un primer paso para ayudar a las máquinas a hacer precisamente eso.

Dejar respuesta

Please enter your comment!
Please enter your name here