Los investigadores están usando Wikipedia para enseñar a los robots que no puedes comer mesas
NoticiasLos emparejamientos de verbos son bastante naturales para los humanos. Instintivamente sabes que tu teléfono puede ser recogido, bajado, encendido, roto, incluso amado. Pero no puedes nadar, bailar o remover..
Los robots no tienen los mismos instintos y, por lo tanto, a menudo carecerán de comprensión sobre lo que puedes y no puedes hacer con un objeto, lo que significa que pueden tener dificultades para saber cómo interactuar con él..
Este es un problema en el que un equipo que trabaja en la universidad Brigham Young ha estado trabajando, utilizando un método no convencional; Wikipedia.
“Cuando los investigadores de aprendizaje automático vuelven a los robots o agentes artificialmente inteligentes en entornos no estructurados, prueban todo tipo de cosas locas,” dicho co-autor Ben Murdoch.
“Falta por completo el entendimiento de lo que puedes hacer con los objetos, y terminamos con robots que pasarán miles de horas tratando de comer la mesa..”
El equipo desarrolló un método para enseñar a los "agentes" artificialmente inteligentes acerca de las acciones que se pueden aplicar a un objeto mediante una referencia cruzada de los pares de verbos en la enciclopedia que se puede editar públicamente..
Tráeme el horizonte
Para probar la eficiencia del aprendizaje, los agentes fueron sometidos a una prueba que incluyó una serie de juegos de aventuras basados en texto, donde un jugador y un agente tienen una interacción de ida y vuelta, sugiriendo situaciones y luego frases correspondientes. Según el boletín de BYU, la solución de Wikipedia “Mejoró el rendimiento de la computadora en 12 de los 16 juegos.”.
Las aplicaciones prácticas de esto son de gran alcance, con la autora principal Nancy Fulda imaginando que un robot de cuidado con la capacidad de interactuar con el mundo de manera inteligente “Tiene un increíble potencial para hacer el bien, para ayudar a la gente.”.
Así que si se le dice a un robot que “trae mis lentes”, sería capaz de comprender que se requerían anteojos, pero también que los anteojos podrían levantarse, transportarse y pasarse, todos los requisitos de la acción que de otra forma tendrían que ser programados individualmente.
El equipo presentó recientemente su trabajo en la Conferencia Internacional Conjunta sobre Inteligencia Artificial y afirma que todavía hay mucho trabajo por hacer antes de que alcance el objetivo final de tener un Android completamente funcional con estas capacidades. A medida que nos enteremos de nuevos desarrollos, le informaremos.
- ¿Quieres más noticias interesantes sobre gente entrenando robots? Revisa: Los ingenieros enseñan a los robots a comprender las emociones a través del tacto.
Fuente BYU