"The irony of general-purpose technologies is that, before long, they become invisible and we take them for granted." ~Mustafa Suleyman

Las relaciones de adolescentes son más estables que OpenAI. Al menos entre adolescentes entenderíamos quejas de “no me habla lo suficiente” o “terminas conmigo, también con mis amigos”. Pero lo peor es que lo vimos la semana pasada en una empresa valuada en ochenta mil millones de dólares, que no busca generar ganancias, sino democratizar la Inteligencia Artificial Generativa.

La historia era para biografía de Walter Isaacson o documental de Netflix, líder querido por su entorno y sus empleados es puesto en la calle antes de día de acción de gracias, que terminó en mucho ruido, muchos clics y anuncios publicitarios sobre un chisme más en Silicon Valley. OpenAI es de las empresas de “inteligencia artificial” más conocidas por un chat que imagina respuestas con lenguaje y contenido muy aceptable. No sé si sea la mejor empresa de AI, calculo que logran más otras, pero nos cuesta ver lo que hacen porque no nos “beneficia” directamente a muchos como un chat que genera (idea) respuestas inspirada en información de millones de datos públicos o de enormes fuentes particulares. Pero si ha sido el detonante de la conversación alrededor de esta tecnología y eso se agradece.

Hubo de todo, un consejo que no midió su poca influencia y conocimiento técnico; empleados comprometidos con un líder que es reconocido por varios líderes de Silicon Valley, pero no deja de ser un personaje gris en sus objetivos y trabajo; una empresa más vieja que nunca ha sido parte del valle; sin embargo, que hoy tiene un gran presidente ejecutivo, que creció en sus entrañas. Al final de todo, Sam sigue liderando OpenAI, que sigue bajo el consejo de administración que estaba y solo es más claro el poder de Microsoft y “el ‘sindicato’ de fans de Sam” en la empresa.

La palabra sindicato está mal vista entre los tecnócratas del valle del silicio. Sin embargo, no hubo mayor ruido a la reacción de cientos de empleados de OpenAI que dijeron; si se va Sam, nos vamos todos. Los que fueron inmediatos en tratar de capitalizar ese conocimiento en éxodo era el principal inversor, dispuesto y listo para recibir a más de 500 empleados en un día.

El tema con la IA, a diferencia de la época de “disruptores” de la que venimos, es que no es una iteración digital sin regulación, es una nueva tecnología. Aplicaciones que eliminan la fricción del taxi, del repartidor, de la tienda, ofreciendo tecnología para complementar ingresos, evitando ser reguladas para terminar pagando “cuotas extrañas” para validar su existencia ante instituciones de recaudación gubernamental. La Inteligencia Artificial Generativa requiere ser vista con otra lente.

Para evitar repetir errores tenemos que revisitar la historia. Para entender el impacto de la simbiosis en la que vivimos con tecnologías de uso genérico: hachas, fuego, energía, motores, telecomunicaciones, hay que detenernos cuando vemos a una similar asomarse por la puerta. Son pocas las veces que hemos tenido esta oportunidad, en el pasado, o no teníamos la capacidad mental, o desconocíamos el impacto de extraer y quemar carbono de forma desmedida. Hoy contamos con autocrítica y también con cierta capacidad en avanzar los desarrollos tecnológicos, haciéndonos responsables o visitando a priori su impacto en diversos grupos de la sociedad.

Es así que llegamos a propuestas de costo y beneficios ante el impacto de nuevas tecnologías. Entre las opciones que se han visto me llama la atención el estudio del Centro de Seguridad y Tecnologías Emergentes de Georgetown: “Decoding Intentions: AI and Costly Signals”. En el estudio se plantean las “señales costosas” mismas que serían acciones arriesgadas (con un costo) que muestran que alguien habla en serio sobre su objetivo.

En el contexto de la inteligencia artificial (IA), quienes proponen nuevas políticas públicas pueden utilizar señales costosas para pedir que se demuestre que empresas, gobiernos y fuerzas militares, por citar ejemplos, están comprometidos a utilizar la IA de manera responsable.

Las señales costosas, claras y sobre cualquier tipo de #ruidoblanco, pueden ser importantes por varias razones. Primero, pueden ayudar a generar confianza entre países y empresas. Si los países saben que otros países están comprometidos a utilizar la IA de manera responsable, es más probable que cooperen en el desarrollo y la implementación de la IA. Segundo, las señales costosas pueden ayudar a prevenir el uso indebido de la IA. Si las empresas saben que el empleo indebido de la IA tiene graves consecuencias, es menos probable que lo hagan.

Es así que más allá de las grillas y los fans no sindicalizados de sus líderes en Silicon Valley, desde la sociedad tenemos que exigir guías que demuestren compromiso. Las señales costosas resultan ser una herramienta valiosa para los consejeros de empresas de inteligencia artificial o para los creadores y promotores de políticas públicas que quieren entablar una discusión seria sobre la utilización responsable de la IA, que no se la “anden imaginando”. Al utilizar estas “señales costosas”, pueden ayudar a generar confianza, prevenir el uso indebido de la IA y promover su desarrollo seguro y benéfico para la sociedad.

Foto: Especial
Foto: Especial

Nota: La opinión de Ricardo Blanco es personal y no refleja la del medio ni la de la empresa para la que trabaja.

ricardo [at]



Google News

TEMAS RELACIONADOS