La inteligencia artificial aprende sobre lenguaje a través de los ojos y oídos de un niño
Entre
los seis y los nueve meses de edad, los niños aprenden sus primeras palabras y
empiezan a relacionarlas con objetos y conceptos del mundo real. Cuando tienen
entre 1,5 y dos años, la mayoría puede comprender una media de 300 palabras.
Pero no se sabe bien cómo las adquieren y las relacionan con sus equivalentes
visuales. Comprender mejor este proceso podría servir de base a los sistemas de
inteligencia artificial de nueva generación que desarrollan vínculos entre las
palabras y las representaciones visuales.
Los
actuales sistemas de IA, como Chat GPT-4, ya pueden aprender y utilizar el
lenguaje humano, pero lo hacen a partir de cantidades astronómicas de datos
lingüísticos. Los mejores sistemas se entrenan con textos que contienen
billones de palabras, mientras que los niños solo reciben millones al año.
Debido
a esta enorme laguna de datos, los investigadores se han mostrado escépticos
ante la posibilidad de que los recientes avances de la IA puedan decirnos mucho
sobre el aprendizaje y el desarrollo del lenguaje humano.
Para
avanzar en este ámbito, un equipo de la Universidad de Nueva York decidió
desarrollar un nuevo modelo de aprendizaje automático, no a partir de datos
masivos, sino tomando como ejemplo la experiencia de cómo aprende a hablar un
único niño, al que llamaron bebé S. Los resultados del estudio se publican en
Science.
Los
autores diseñaron un experimento que consistió en entrenar un sistema de IA
multimodal a través de los ojos y los oídos de bebé S. Para ello utilizaron
grabaciones de vídeo de una cámara frontal que recogieron desde que tenía seis
meses hasta su segundo cumpleaños. Y examinaron si el modelo podía aprender
palabras y conceptos presentes en la experiencia cotidiana de un niño.
.
Comentarios
Publicar un comentario