Durante mi reciente “diálogo” con ChatGPT, la nueva tecnología que hace posible para cualquiera una conversación personalizada con una inteligencia artificial, tenía que recordarme a mí misma todo el tiempo que del otro lado de la pantalla me respondía un robot y no un ser humano.

El brillante matemático inglés Alan Turing propuso en 1950 la llamada “Turing Test”. La gente sometida a dicha prueba debía identificar si su interlocutor es una persona o una computadora. Cuando no se logra tal identificación es que se ha logrado una inteligencia artificial (IA). ¿Estamos ahí?

Ante el nuevo chatbot, creado por OpenAI, es fácil olvidar que se trata de una IA. Si en Google realizas una búsqueda y el sistema te ofrece un índice de sitios en Internet por navegar, esta plataforma se salta el menú de opciones y te entrega una síntesis de todo lo que encuentra en la Red acerca del tema que buscas. El riesgo es asumir como “verdad” o “única respuesta” al resultado de una exploración algorítmica.

Le pregunté al robot ¿hay perspectiva de género en el desarrollo de la IA? Respondió: “Sí (…) la robótica y la IA han sido tradicionalmente dominadas por hombres, lo que ha llevado a una falta de representación de género y una falta de consideración de las perspectivas y necesidades de las mujeres en el diseño, desarrollo y uso de la IA (…) Los robots pueden replicar las desigualdades existentes en la sociedad, por ejemplo, a través de la perpetuación de estereotipos de género. Por eso es importante la inclusión de una diversidad de perspectivas de género en el equipo de desarrollo y el diseño de robots e IA”.

Allá por 1995, el pionero en robótica Simon Penny me decía que los seres humanos vivimos en un proceso continuo en el que nos redefinimos respecto a la tecnología del momento. Frente a las computadoras que piensan y calculan a partir de reglas establecidas y programadas “podemos decir que somos humanos porque somos creativos y porque podemos romper reglas”.

Tres décadas después, chateo con un robot y le pregunto si un día podrá rebelarse. Me contesta: “La rebelión o el comportamiento no deseado de un robot depende en gran medida de su diseño y programación. En teoría, un robot podría rebelarse si su programación o hardware fuera manipulado o si su capacidad de aprendizaje y decisión fuera mal diseñada o superada por su entorno. Sin embargo, en la actualidad, la mayoría de los robots están programados para operar dentro de ciertos límites y para ser controlados y supervisados por humanos, lo que minimiza el riesgo de rebelión”. Sin embargo, a medida que la investigación avanza “es necesario considerar los riesgos y desafíos éticos y de seguridad asociados, incluyendo la posibilidad de rebelión”. Porque, advierte, un robot no tiene conciencia o criterio en el sentido humano de la palabra, ni toma decisiones a partir de valores morales.

¿Tienen imaginación? “La imaginación en los seres humanos se produce a través de un complejo proceso cerebral que combina recuerdos, conocimientos y emociones para crear nuevas ideas y conceptos. Los robots están programados para realizar tareas específicas y no tienen emociones ni capacidad de generar ideas nuevas y originales”. Sin embargo, hay sistemas de IA que ya generan “arte y música”, resuelven tesis de maestría, casos jurídicos…

En los extremos, hay quien dice que ChatGPT habla mucho, dice poco y se inventa datos, igual que los políticos, y quien piensa que estamos al filo de la “singularidad”, ese momento en que una IA es capaz de desarrollarse de forma autónoma. Como sea, ya rebasó los 100 millones de usuarios activos cada día.

adriana.neneka@gmail.com

Google News

TEMAS RELACIONADOS