La tiene el potencial de mejorar la vida de las personas de maneras casi infinitas. Sin embargo, también puede convertirse en un instrumento de exclusión que incremente las asimetrías entre personas de distintos países, razas, creencias… Debido a esto, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura ( UNESCO ) recientemente presentó su Recomendación sobre la

Para explicar los alcances de este documento, Tech Bit de conversó a través de una videollamada, con Gabriela Ramos, Subdirectora General de Ciencias Sociales y Humanas de la UNESCO , quien desde París respondió las siguientes preguntas:

¿Cómo entiende o qué significa la inteligencia artificial desde la visión de la UNESCO?

Debido a que se trata de tecnologías que están avanzando con gran velocidad, las instituciones usualmente evitan tener una definición muy concreta y precisa. Sin embargo, cómo la define nuestra Recomendación es:

“Los sistemas de inteligencia artificial son tecnologías de procesamiento de la información que integran modelos y algoritmos que producen una capacidad para aprender y realizar tareas cognitivas, dando lugar a resultados como la predicción y la adopción de decisiones en entornos materiales y virtuales”.

¿En ese sentido como la inteligencia artificial está incrementando las desigualdades?

En primer lugar, simplemente porque requieren de una competencia elevada. También, como lo decimos en la Recomendación, estas tecnologías te dan una gran oportunidad de avanzar en el desarrollo y el bienestar. Pero, la manera como se han estado desarrollando estas tecnologías no es la mejor. Esto en el sentido de que hay una alta concentración en un grupo de países y en un grupo de empresas. Por ejemplo, solo cinco países y 200 empresas en el mundo producen casi el 80% de todo lo que es inteligencia artificial.

También hay que tomar en cuenta que la mitad de la población en el mundo está sin conectarse al Internet, sin acceso a la banda ancha, sin infraestructura. Entonces, el llamado que hacemos, considerando que la ética no solamente se aplica a los resultados de los desarrollos de inteligencia artificial, sino también a los modelos de negocios en los cuales se están desarrollando, es para cambiar esos modelos de negocios y hacerlos más incluyentes y diversos.

UNESCO busca regular éticamente a la Inteligencia artificial
UNESCO busca regular éticamente a la Inteligencia artificial

¿Ante qué necesidad surge esta Recomendación?

La UNESCO lleva muchas décadas entrenando para este tipo de tecnologías. Por ejemplo, hace dos décadas, cuando se dio el debate del genoma humano, la UNESCO fue la primera institución que lanzó la señal de alarma al decir: “podemos clonar ovejas, pero, ¿debemos hacerlo?, ¿hay algún marco regulatorio que nos permita tener una visión respecto de lo que es éticamente aceptable o no?”

Entonces, desarrollamos todo lo que ha sido la bioética. Nuestra organización fue pionera en el desarrollo de la infraestructura de las comisiones de bioética, las legislaciones de bioética… Creo que nuestra visión sobre tecnologías de punta cambia. Hace 20 años era la bioética, ahora es la inteligencia artificial . Mañana, quizá nos vamos a la neurociencia, pero, al final, mantenemos el mismo enfoque: consideramos que las tecnologías son maravillosas y que hay que seguirlas potenciando, pero en un marco ético, para que, por ejemplo, las tecnologías no se desarrollen por sí mismas, sino, debemos alinearlas a que contribuyan a incrementar el bienestar, la igualdad y la justicia entre los seres humanos.

¿Quiénes crearon esta Recomendación?

Un grupo multidisciplinario. No solo tenemos tecnólogos sino también economistas, gente que conoce del mercado… También tenemos filósofos, psicólogos y sociólogos; entonces, eso nos da una visión mucho más rica y una comprensión cultural mayor.

Nuestra directora general, Audrey Azoulay, tuvo esta visión de que la UNESCO tenía que estar en este rubro y con un mandato sobre la ética. Ella fue la que tuvo la iniciativa principal. Además, obviamente, nuestros países miembros nos dieron el mandato. Así, se nombró un grupo de 24 especialistas, regionalmente diversos.

Este grupo multidisciplinario tuvo un apego fundamental al tema de la defensa de la promoción de los derechos humanos en el mundo en línea, de la dignidad humana, pero también consideró una serie de valores que tenemos que promover a través de las tecnologías, como es el valor de la convivencia pacífica, de la justicia, la compresión, el apego a los valores democrático, al respecto.

Así, después de que se logró el primer texto, que era muy rico y muy ambicioso, lanzamos una serie de consultas a través del mundo: en los países árabes, en los países africanos, en Europa…, para poner la Recomendación al escrutinio de la sociedad civil. Recibimos muchísimos comentarios.

Lanzamos una encuesta en línea y recibimos alrededor de 55 mil comentarios. Tuvimos que usar la inteligencia artificial para procesarlos. Entonces, terminamos con un texto que es muy sólido, porque tiene una visión inclusiva y tiene mucha sabiduría porque dejó que todo mundo hablara: los jóvenes, las regiones en retraso, los países muy avanzados, los países menos avanzados, los intelectuales...

¿Cómo lograrán que esta Recomendación genere resultados positivos?

Pensamos en dos vías para que tenga un impacto. La primera es trabajar con los países miembros. No solo es lo que ya está en el papel, ahora nos han pedido que hagamos análisis, que apoyemos a los países a entender cómo las políticas pueden cambiar e Influenciar a que los desarrollos sean más inclusivos. Además, nos pidieron que elaboráramos un instrumento de evaluación ética y un instrumento de evaluación de competencias de los países.

Entonces, el primer espacio es el intergubernamental que es donde yo opero. Ya tenemos países early adopters, incluyendo a México, que son países pioneros que quieren trabajar desde ya en analizar qué significa todo lo que contiene la Recomendación en materia de cambios de legislaciones, de reglas y de regulaciones a nivel nacional.

El segundo nivel es hacer mucho análisis. Queremos documentar dar a conocer lo que pasa cuando hay modelos de inteligencia artificial mal desarrollados, que excluyen, que tienen bases de datos de mala calidad, que funcionan con algoritmos que reproducen los estereotipos y los sesgos, que discriminan a los que no están representados o a la gente de color oscuro, o las mujeres; entonces, eso es lo queremos documentar y promover, para que la gente comprenda.

Tenemos que entender cuándo estamos dando la autorización de que se utilicen nuestros datos, conocer cuáles son los riesgos, cómo se van a utilizar esos datos y si realmente tendremos el control de lo que pasa con nuestra presencia en el mundo digital. Entonces, hay que educar al respecto y hacer mucha difusión.

¿Cómo esperan que las grandes empresas tecnológicas reaccionen a esta recomendación?

Yo te diría que hay muchos niveles en esto. No podemos pensar que en el mundo Big Tech todos opinan igual. Hay algunas Industrias que siguen pensando que la autorregulación o la regulación voluntaria, que ha sido el modelo que priva sobre todo en los Estados Unidos, es la mejor manera.

Yo creo que está totalmente erróneo, porque se ha demostrado que no se han podido autorregular, que estas plataformas se han utilizado para influir negativamente en procesos electorales, para el control de la sociedad civil o para la supervisión masiva, la desinformación y el discurso del odio.

Ese modelo de autorregulación se acabó. Los Estados que conforman nuestra institución tienen la responsabilidad de proteger al ciudadano. Las normas y los estándares los desarrollan los Estados.

Evidentemente venimos de una década de pensamiento económico neoliberal que contemplaba ideas como la de que “siempre que hay regulación se impide la innovación”. Eso no es cierto, el Estado tiene mecanismos de incentivos económicos y regulatorios para poder catalizar el desarrollo de estas tecnologías de la mejor manera.

Por ejemplo, puede invertir más en inteligencia artificial para que eso permita manejar mejor los sistemas de alimentación mundial y así evitar el 40% de desperdicio actual.

Yo te diría que no les vamos a pedir opiniones [a las big techs]. Es una responsabilidad del Estado el tener regulaciones de calidad y efectivas que permitan maximizar los beneficios de tecnologías, como la inteligencia artificial, pero protegiendo a los individuos.

Yo creo que uno de los temas importantes de la Recomendación es que si hay daño, debe haber compensación, debe haber una investigación, debe haber una adjudicación jurídica de que se tiene que resarcir ese daño y no existe todavía una claridad de eso.

¿Esta Recomendación podría ser “la semilla” para futuras regulaciones o leyes que pudieran aplicarse de manera internacional?

Sobre si esta Recomendación tiene posibilidades de volverse una Convención o un instrumento jurídico internacional vinculante, puede suceder. Sin embargo, en este momento, estamos iniciando con esto y consideramos que tiene un potencial impresionante. Al final del día, lo que vamos a hacer es producir la evidencia y recomendar también las mejores prácticas. Vamos a checar cuáles son los mejores desarrollos institucionales para abordar los problemas a los que me he referido y solucionarlos. También vamos a impulsar un proceso de aprendizaje entre pares -y de presión entre pares-, en donde la institución puede dar apoyo sustantivo de conocimiento y también de una plataforma donde los países puedan intercambiar sus experiencias.

Entonces eso es lo que queremos hacer: trabajar con los países que tienen mucho interés en aprender, junto con la UNESCO , cómo hacer una buena regulación. Eso es lo que hacen las organizaciones internacionales, independientemente de qué tan vinculantes son nuestros estándares, lo cierto es que son referencia e informan.

En el tema de “la fusión” de esta tendencia de inteligencia artificial con otras, por ejemplo, con la del metaverso, ¿la Recomendación contempla esos escenarios?

Creo que esto está perfectamente cubierto por la Recomendación porque, como te digo, no hay una definición única. El metaverso es una aplicación de la inteligencia artificial y una

convergencia en la que se crea un universo paralelo. Entonces, debemos tener mucho cuidado de que no se abuse de los usuarios.

Ese es un punto fundamental porque las personas entran en contacto con estas plataformas sin claridad de a qué se están comprometiendo, qué tipo de datos están dando y cómo se van a utilizar, y sobre qué tanto su privacidad está siendo protegida o no. Asimismo, se debe analizar sobre qué tanto existen los incentivos para que la gente que se vincule con estas plataformas, no se explaye. Porque lo que ha sucedido en las redes sociales es que la gente puede permitirse algunos excesos en línea que no se lo permitiría en el mundo real.

Yo te diría que todas las preguntas que nos hacemos en la Recomendación respecto a los controles que debe haber para evitar excesos se aplican perfectamente al tema de metaverso. Además, como lo respondió uno de nuestros expertos a una pregunta similar. Él dijo: “yo esperaría que el próximo en el Metaverso se utilizara la Recomendación antes de su lanzamiento”.

Lo que sucede es que siempre tratamos de perseguir, pero se debe contemplar todo el ciclo de la inteligencia artificial desde la investigación, el desarrollo, la implementación, la evaluación del impacto, la retroalimentación, el desarrollo de los algoritmos, el marco conceptual de los algoritmos… Todos estos pasos requieren la reflexión ética y requieren de establecer controles. Así, para cualquier desarrollo, necesitamos que esta Recomendación tenga una influencia fundamental.

Estamos hablando de posibles efectos negativos de no considerar las implicaciones éticas en los desarrollos de inteligencia artificial. Sin embargo, ¿por qué es relevante usar inteligencia artificial? Es decir, ¿cuál es el lado positivo?

La visión que tenemos respecto de estas tecnologías es que queremos maximizar los beneficios, que son muchos. Realmente eso es lo que deseamos. Evidentemente, queremos controlar los lados negativos, porque lo que está sucediendo es que ya hay una desconfianza de muchos usuarios: de los papás que están muy preocupados por sus chicos…

Lo que puede suceder es que haya un rechazo a las tecnologías y que la gente se enoje con sus gobiernos porque no se siente protegida, porque no se siente que haya las medidas para ser protegidos. Eso puede tener un impacto negativo en el desarrollo tecnológico.

Entonces, para nosotros, el marco ético no es simplemente para controlar las tecnologías digamos “malignas”. Es, fomentar un entorno en el que realmente la gente se sienta segura, que las tecnologías sean utilizadas para mejorar.

Por ejemplo, ayudaron a desarrollar la vacuna contra la Covid en un año, en lugar de cuatro u ocho años. Obviamente porque también hubo acciones para acelerar los periodos de prueba y todo eso, pero aún así, gran parte de ese logro científico fue porque había la inteligencia artificial que estaba analizando una cantidad de datos tan grande que a los seres humanos nos hubiera tomado años revisar.

Otra aplicación es que esta tecnología se utiliza para evitar el tráfico de infantes, la trata de personas… Es espectacular, es súper promisorio. En lo personal yo soy una enamorada de las tecnologías, pero sinceramente me preocupa mucho que haya abusos, me preocupa que la gente pierda su autonomía, que estemos siendo focalizados en lo que nos da miedo, en lo que nos gusta, en lo que no nos gusta, sin que nosotros preguntemos y nos dejen contestar sobre qué es lo que necesitamos o no necesitamos.

Este puede ser realmente un parte de aguas. El hecho de que tengamos 193 países presentes muestra que estamos ante un consenso de la necesidad de cambiar este modelo de negocios. Realmente debemos alinear la inteligencia artificial con los objetivos más importantes de la humanidad.

Leer también:

Recibe todos los viernes Hello Weekend, nuestro newsletter con lo último en gastronomía, viajes, tecnología, autos, moda y belleza. Suscríbete aquí:

Google News

TEMAS RELACIONADOS

Noticias según tus intereses