Pablo Lanillos
Pablo Lanillos Pradas[1] (Madrid, 1981) es un informático español, investigador especializado en inteligencia artificial.[2][3]
Pablo Lanillos | ||
---|---|---|
Información personal | ||
Nombre en español | Pablo Lanillos Pradas | |
Nacimiento |
1981 Madrid (España) | |
Nacionalidad | Española | |
Educación | ||
Educado en | Universidad Complutense de Madrid | |
Información profesional | ||
Ocupación | Investigador e informático teórico | |
Área | Robótica e inteligencia artificial | |
Empleador | Universidad Técnica de Múnich | |
Biografía
editarDoctor en inteligencia artificial por la Universidad Complutense de Madrid,[2] realizó estancias en diferentes centros de todo el mundo como el Instituto Tecnológico de Massachusetts (MIT) en Estados Unidos o el Centro de Robótica de la Universidad de Sídney en Australia.[4] Desde 2016 investiga en el Instituto de Sistemas Cognitivos de la Universidad Técnica de Múnich, donde desarrolla un proyecto, Selfception, financiado por la Unión Europea a través de una beca Marie Curie del programa Horizon 2020[2] y coordinado por el doctor Gordon Cheng, director del Instituto de Sistemas Cognitivos.[4]
El proyecto trata de reproducir en máquinas un conocido experimento, la ilusión de la mano de goma, en el que se hace creer a los participantes que una extremidad de plástico es la suya propia. Se oculta un brazo, se sustituye por otro de pega y se estimulan los dos a la vez con un pincel o una pluma. Pasado poco tiempo, muchos voluntarios reaccionan cuando se golpea la mano falsa, a la que ya consideran parte de su cuerpo.[2] Lanillos y Cheng señalan haber conseguido en máquinas —en un robot denominado TUMM— replicar la ilusión, en concreto uno de sus efectos, el desplazamiento del esquema general del cuerpo, que se adapta a las nuevas sensaciones.[2] En el experimento con humanos, cuando se les pregunta a los participantes dónde está su mano escondida, en lugar de indicar la posición real señalan una posición desplazada hacia la mano de plástico. La primera presentación de resultados se realizó en Japón en marzo de 2018, en el congreso ICDL-Epirob y se ha publicado por Lanillos y Cheng con ocasión del congreso IEEE International Conference on Intelligent Robots and Systems (IROS 2018) que tuvo lugar en Madrid[2] bajo el título Adaptive robot body learning and estimation through predictive coding.[5]
En las XXXV Jornadas de Automática celebradas en Valencia en 2014, Pablo Lanillos obtuvo un accésit a la mejor tesis en Control inteligente otorgada por la empresa Mathworks.[1] Lanillos es vicepresidente de la Asociación de Científicos Españoles en Alemania.[2]
Referencias
editar- ↑ a b Universidad Politécnica de Valencia (ed.). «Listado de premiados». XXXV Jornadas de Automática- Valencia, 2014. Consultado el 12 de octubre de 2018.
- ↑ a b c d e f g Sacristán, Enrique (3 de octubre de 2018). Agencia SINC, ed. ««Hemos logrado que un robot replique la ilusión de la mano de goma por primera vez»». Consultado el 12 de octubre de 2018.
- ↑ Japan Science and Technology Agency (ed.). «International Mini-Symposium on Cognitive Robotics-CREST "Cognitive Mirroring"» (en inglés). Consultado el 12 doctubre de 2018.
- ↑ a b Ansede, Manuel (8 de junio de 2017). «Un científico español enseña a robots a reconocerse a sí mismos». El País. Consultado el 12 de octubre de 2018.
- ↑ Lanillos, Pablo; Cheng, Gordon (27 de julio de 2018). IEEE International Conference on Intelligent Robots and Systems (IROS 2018), ed. «Adaptive robot body learning and estimation through predictive coding» (en inglés). arXiv:1805.03104v2. Consultado el 12 de octubre de 2018.
Enlaces externos
editar- Selfception, página web del proyecto.
- Esta entrada contiene partes copiadas o derivadas del artículo elaborado por la Agencia SINC, Entrevista a Pablo Lanillos: «Hemos logrado que un robot replique la ilusión de la mano de goma por primera vez», publicado el 3 de octubre de 2018 en la web del Servicio de Información y Noticias Científicas (SINC) dependiente de la Fundación Española para la Ciencia y la Tecnología, cuyos contenidos están bajo licencia CC-BY-3.0 cumpliendo con los criterios de cita de autoría y enlace al original.