Con su poco más de un metro de altura, el robot iCub tiene las proporciones de un niño de cuatro años. En lugar de articulaciones cuenta con 53 motores eléctricos, dos cámaras que hacen de ojos, dos micrófonos para oír y algo similar al sentido del tacto, gracias a 4.000 sensores sensibles a la presión.
“Puede experimentar el mundo de forma parecida a un niño y tiene el potencial de desarrollar un tipo de cognición similar”, explica a Sinc Matej Hoffmann, investigador principal del proyecto checo Robot Body Schema.
Su equipo es uno de los muchos que están utilizando este robot humanoide con código abierto diseñado por el Instituto Italiano de Tecnología. En su caso, lo eligieron por sus proporciones similares a las de un niño y por su piel electrónica.
Disciplinas tan diferentes como la filosofía, la psicología, la lingüística, la neurociencia, la inteligencia artificial y la robótica llevan décadas estudiando la cognición, esa facultad que procesa la información y que engloba habilidades como el aprendizaje, el razonamiento, la atención y los sentimientos.
“Puede experimentar el mundo de forma parecida a un niño y tiene el potencial de desarrollar un tipo de cognición similar”, afirma Hoffmann
Mientras que la psicología y la neurociencia prefieren los estudios en personas, la inteligencia artificial se inclina por modelos de ordenador, al interpretar esa facultad como un mero procesamiento de información.
“La cognición es inseparable del cuerpo físico y de sus sistemas sensoriales y motores, por lo que los modelos computacionales no son suficientes”, puntualiza Hoffmann, que dirige el grupo Humanoide y Robótica Cognitiva de la Universidad Técnica Checa en Praga.
La ventaja de la robótica y sus androides para estudiar estos procesos es que contemplan el contacto con el entorno. Además, en ellos se pueden simular cambios o lesiones imposibles de practicar en modelos humanos.
Una piel artificial para sentir
El mejor ejemplo de contacto es cuando una persona toca a otra. ¿Puede un robot notar esa sensación e identificar en qué parte del cuerpo se ha producido? Es precisamente lo que han conseguido Hoffmann y su equipo.
Gracias a los miles de sensores que configuran la piel artificial del humanoide y al desarrollo de un nuevo algoritmo, el ingeniero y estudiante de doctorado Zdenek Straka ha logrado que el robot desarrolle y aprenda un mapa de la superficie de su piel –denominado homúnculo–, similar al generado por el cerebro humano y el de otros primates.
“El toque en el cuerpo del robot se transmite a una región particular de este mapa. Dependerá entonces del androide averiguar cómo interpretar o usar esa información”, indica Hoffmann. El algoritmo también se adapta a los cambios corporales. Si una parte de la piel deja de sentir, el ‘cerebro’ del robot reasigna esa zona a otras partes del cuerpo.
Han logrado que el robot desarrolle y aprenda un mapa de la superficie de su piel similar al generado por el cerebro humano y el de otros primates
“El tacto es un sentido algo subestimado, pero en realidad es extremadamente importante”, recalca Hoffmann. Gracias al tacto somos conscientes de toda la superficie del cuerpo, lo que nos permite percibir diferentes tipos de contacto, desde una caricia hasta una colisión. Según los expertos, dotar a los robots de este sentido mejorará su futuro contacto con los humanos.
Los robots también necesitan su espacio
Volviendo a las personas, hay a quien le incomoda el exceso de contacto o una cercanía excesiva de su interlocutor, pues su espacio vital –el peripersonal– está siendo invadido. Hoffman y su equipo están tratando de que los androides aprecien este espacio.
“Es muy importante para la interacción segura entre robots y humanos, sobre todo en el contexto de aquellos colaborativos que abandonan las zonas de seguridad y comparten el espacio vital con los humanos”, destaca el experto.
Como primer paso, Hoffmann y Straka han desarrollado un modelo computacional basado en una arquitectura de red neuronal dentro de un escenario en dos dimensiones, donde los objetos se aproximan a una superficie que simula la piel.
En estos momentos, el investigador, junto con sus estudiantes Zdenek Straka y Petr Švarný, están aplicando el modelo en humanoides. “Los robots deben ser capaces de anticipar contactos cuando algo penetra en el límite de su zona de seguridad”, afirma Hoffmann.
Las sensaciones de un bebé
Aunque fundamentalmente trabajan con androides, los investigadores también han estudiado sensaciones que experimentan los humanos, en concreto, bebés de entre tres y veintiún meses. Con la ayuda de psicólogos, colocaron un aparato que vibraba en diferentes partes del cuerpo y la cara del bebé y analizaron cómo respondían a estos estímulos.
Los investigadores también han estudiado las sensaciones de los bebés, que no nacen con un mapa de sus cuerpos
La principal conclusión es que los párvulos no nacen con un mapa o un modelo de sus propios cuerpos. Por eso, su primer año de vida es decisivo para que los puedan explorar y aprendan los patrones que luego repetirán, “como cuando tienen que rascarse en un lugar concreto”, señala el ingeniero.
Esta y las anteriores investigaciones se enmarcan en el proyecto Robot Body Schema, cuyo objetivo final es estudiar los mecanismos que utiliza el cerebro para representar el cuerpo humano.
Analizar la mente desde el prisma de la robótica conlleva un efecto tan fascinante como poco explorado: la humanización de las máquinas. “Aplicamos algoritmos inspirados en el cerebro para conseguir que los robots sean más autónomos y seguros”, concluye Hoffmann.
El Servicio de Información y Noticias Científicas (SINC) es la primera agencia pública de ámbito estatal especializada en información sobre ciencia, tecnología e innovación en español. Fue puesta en marcha por la Fundación Española para la Ciencia y la Tecnología en el año 2008. El equipo de SINC produce noticias, reportajes, entrevistas y materiales audiovisuales (vídeos, fotografías, ilustraciones e infografías).
La Inteligencia Artificial (IA) se ha vuelto una tecnología de uso cotidiano. Día a día aparecen nuevas aplicaciones para crear música, hacer vídeos, generar imágenes, producir textos, calificar tareas y automatizar procesos. Las empresas están implementando modelos de aprendizaje automático y aprendizaje profundo para el mejoramiento en la toma de decisiones en sus diferentes áreas. También se están adaptando diversas aplicaciones en la optimización de la mayoría de operaciones logísticas de las cadenas de suministros. En este sentido, es necesario entender ¿qué es la IA General?, y ¿qué es la Superinteligencia?
La NASA lanzará tres cohetes sondeo durante el eclipse solar total del 8 de abril de 2024, para estudiar cómo se ve afectada la atmósfera superior de la Tierra cuando la luz solar se atenúa momentáneamente sobre una parte del planeta.
El instrumento se encuentra entre los gravímetros más pequeños y más baratos jamás construidos.
Recientemente se aprobó en el Reino Unido y en Estados Unidos la primera terapía génica basada en el método CRISPR/Cas9, que combatirá la anemia de células falciformes y la beta talasemia.
Marzo destaca el papel de las mujeres en la ciencia, promoviendo la equidad y la representatividad. Adriana Ocampo, Ángela Camacho, Susana Fiorentino, Nubia Muñoz y Alexandra Olaya-Castro son ejemplos de mujeres que han contribuido significativamente en diversos campos científicos.
Un método novedoso hace que herramientas como Stable Diffusion y DALL-E-3 sean más rápidas al simplificar el proceso de generación de imágenes en un solo paso mientras se mantiene o mejora la calidad de la imagen.