“No creo que los robots lleguen a ser personas artificiales”

“No creo que los robots lleguen a ser personas artificiales”

Publicado por el Jan 20, 2017

Compartir

Por Rebeca Gavrila

Manuel González Bedia es investigador del Grupo ISAAC (Interdisciplinary Studies in Adaptivity, Autonomy and Cognition) de la Universidad de Zaragoza y coorganizador de ReteCog (Red Temática de Ciencia Cognitiva). Este físico de formación se vio atraído por la Informática y la Filosofía de la Mente, lo que le llevó a dedicarse profesionalmente al análisis y modelización de las Funciones Cognitivas.

-Se encargan de realizar análisis y modelos matemáticos a partir de las funciones cognitivas, ¿cuáles son las que más les interesan?

Las funciones cognitivas básicas. En nuestro grupo, venimos del campo de la Inteligencia Artificial y hemos ido derivando hacia el campo de los Sistemas Cognitivos Artificiales, que está más relacionado con Psicología y Neurociencia. La inteligencia artificial desde el principio quiso centrarse en funciones cognitivas muy elevadas, como la planificación o el lenguaje. Nosotros hacemos casi lo contrario, nos centramos en aspectos como la supervivencia, adaptación o la corporalidad.

 -¿Qué aplicaciones prácticas tiene su trabajo?

La primera aplicación es generar conocimiento, aunque reconocemos que es un conocimiento un poco extraño en el campo del estudio de la mente, ya que está generado por herramientas que no son las más habituales: las de formalización y modelización típica de los ingenieros. Además, tiene aplicaciones prácticas. Como son funciones muy básicas y no consumen muchos recursos, pueden ser muy útiles en el diseño de nanorrobots o en el diseño de controladores en avatares de videojuegos. Algunos de nuestros trabajos de análisis de datos también sirven de apoyo para diagnósticos, principalmente precoces, en el campo clínico.

 -¿En qué patologías se podrían utilizar estos modelos?

En el autismo, por ejemplo. Se ha descubierto que en los pacientes con autismo muchas de las carencias que sufren se deben a que no se les da el tiempo necesario ni la información dosificada para que ellos puedan procesarla. Por ejemplo, estos pacientes no responden a aspectos del lenguaje como la ironía o el sarcasmo en la vida real. Sin embargo, se ha podido ver que, en entornos de Internet, en los que reciben la información dosificada y se toman el tiempo que necesitan para contestar, sí que son capaces de responder. Por tanto, estos planteamientos nos permiten realizar un tipo de análisis de ciertas capacidades que sería muy difícil de realizar en un ambiente real.

Otro campo de aplicación ha sido la sociopatía, [también conocida como trastorno antisocial de la personalidad]. Los pacientes con este trastorno se caracterizan por no entender a los iguales como humanos, sino que los instrumentalizan para sus fines. Cuando se les quiere hacer un test para detectar la patología, son conscientes de ello y saben lo que tienen que contestar para engañar al facultativo. En este campo hemos desarrollado una plataforma de reconocimiento social en un entorno virtual, donde hay que acertar si se está jugando contra un humano o contra el controlador de un agente virtual. Con este sistema podemos realizar “tests ciegos” para el diagnóstico de la patología.

Además, en colaboración con un grupo del Centro de Investigación Biomédica de Aragón, hemos hecho un estudio sobre la depresión. Por medio del análisis de la risa de estos pacientes se pueden tener claves para hacer un diagnóstico precoz de la enfermedad, ya que la risa da mucha información sobre algunas variables fisiológicas.

 -¿Cómo se analiza la risa?

Cada uno de los “ja” en una carcajada se le llama “plosivo”. Su distribución durante un episodio de risa tiene relación con el modo en que tomamos aire. Analizando la duración, la frecuencia o la resonancia de los plosivos entre carcajadas, pueden caracterizarse patrones diferentes de risas que identifican modos particulares de respiración o de la acción de las cuerdas vocales.

 -¿Qué relación tiene la risa con la depresión?

Los valores de estas variables (duración, frecuencia, etc.) se ha demostrado que cambian en sujetos con diferentes niveles de depresión. Esta técnica permite clasificar pacientes frente a la depresión correctamente de acuerdo con la escala de Hamilton (normal, ligera o menor, moderada, severa y muy severa). Según el grupo de “Bioinformación y Biología de Sistemas” del Centro de Investigación Biomédica de Aragón, coordinado por Pedro Marijuán, que ha liderado el trabajo y la experimentación, el análisis de la risa puede convertirse en una técnica complementaria para detectar trastornos que afectan la conducta.

 -¿Se busca que las máquinas imiten el comportamiento humano?

Pienso que el objetivo de hacer robots exactamente como nosotros, con nuestros sesgos o nuestras limitaciones, no tiene mucho sentido. Es verdad que en el origen de la Inteligencia Artificial se propuso encontrar los principios operativos que permitieran que las máquinas imitasen nuestra forma de ser. Sin embargo, en los últimos 60 años se han obtenido algunas evidencias sobre el tipo de inteligencia interesante para ser implementada en una máquina. Primero, la replicación de la cognición humana, en los términos que nosotros la vivimos, no se va a poder conseguir. Y no por un problema técnico. Los sistemas inteligentes artificiales o los robots son sistemas sin experiencias, sin capacidad para narrarse a sí mismos algo que sea una autobiografía, sin identidad. Estas cualidades de nuestras vivencias exigen tener “intereses” y no solo “objetivos”, vivir “historias” y no “secuencias de hechos conectados”. No considero que el mundo cualitativo relacionado con nuestras vivencias personales, vaya a ser reproducido por un robot. En segundo lugar, lo interesante es crear robots que hagan cosas que nosotros no seamos capaces de hacer pero no robots que nos copien, es decir, una especie de “personas artificiales”. Eso es cosa de la ciencia ficción.

 -¿No veremos entonces personas artificiales en el futuro?

No lo creo. Uno de los recursos tradicionales de la ciencia ficción es lo que llaman el “cerebro en la probeta”, es decir, un modo de llevar todas nuestras conexiones neuronales a un entorno artificial y que sea “nuestra esencia” la que “viva” en un cuerpo de avatar o de un androide. Pero en realidad todas nuestras conexiones neuronales se han establecido en un sujeto que ha tenido experiencias en ámbitos de la vida real con un cuerpo particular. Si copiara mis conexiones neuronales y las pusiera en otro cuerpo ¿haría que se reprodujeran de la misma forma?¿Por qué debería pasar eso? En general, la mayor parte de lo que se cuenta en televisión entra más dentro del imaginario mítico que de las posibilidades que abre la realidad.

 -Una de las aplicaciones prácticas que tiene su trabajo se encuentra en el ámbito de avatares virtuales que se utilizan en videojuegos y que son capaces de realizar una comunicación interactiva. ¿Pueden estos avatares tomar decisiones como lo hacemos nosotros?

Todo lo que hace un robot o un avatar está programado por su diseñador. Habría que definir concretamente qué queremos decir con “tomar decisiones” para responder a la pregunta. Tomar decisiones como nosotros no, pero sí es cierto que se pueden hacer programas donde no esté explícitamente marcado lo que estos avatares tienen que hacer, donde puedan aprender lo que tienen que hacer por ensayo y error, y al final, en cierto sentido, puedan ejecutar una acción no impuesta.

Rebeca Gavrila – Alumna del Máster en Neurociencia de la UAM

Compartir

ABC.es

Ventana al cerebro © DIARIO ABC, S.L. 2017

Hace un siglo, Santiago Ramón y Cajal, padre de la neurociencia moderna, dijo que “mientras el cerebro sea un misterio, el universo continuará siendo un misterio.” Alumnos y profesores del máster de Neurociencia de la UAM nos guiarán en un apasionante viaje al que sigue siendo el sistema más complejo del universo: nuestro cerebro, con sus 80.000 millones de neuronas.Más sobre «Ventana al cerebro»

Categorías
Etiquetas