El monopolio, en general, es sinónimo de indeseable. Hay algunas excepciones: consenso sobre la bondad del monopolio de la fuerza (el gobierno) o la moneda (el banco central), aunque esos monopolios también son cuestionados a menudo. ¿Podría ser una buena idea un monopolio de IA?

Asumamos -sin conceder- que la IA es una amenaza para la humanidad (estoy pensando en las visiones catastrofistas que ejemplifica alguien como Yoshua Bengio). Entonces pensemos en la mejor manera de regular la IA para minimizar el riesgo de que nos destruya.

(Breve paréntesis, pero muy relevante: cuando alguien profiere “amenaza para la humanidad”, o alguna variante, espera que automáticamente nos espantemos y calibremos una solución para ese “problema”, pero hay que cuestionar si en realidad es un problema. A nivel individual hay un instinto de supervivencia: si nos sumergimos bajo el agua el instinto es salir para poder respirar, si nuestra casa empieza a quemarse salimos para no morir en el incendio, pero la idea de sobrevivir a nivel especie debe cuestionarse. ¿Por qué debemos garantizar la continuidad de la humanidad? ¿Por qué sería malo que las personas desaparezcan? Si mañana no quedara ningún humano, ¿el planeta sería mejor o peor? Valdría la pena hacer estudios que intenten responder esa pregunta, porque no es obvio que la humanidad es algo necesario en la Tierra, ya no digamos en el universo).

Asumido que sí debemos proteger a la humanidad y la IA es un peligro, pensemos (de forma algo simplista) que la IA depende de dos cosas: poder computacional y algoritmos. El poder computacional es físico y los algoritmos no, viven dentro de la computadora, en el mundo virtual. Como el poder computacional (que está ocasionando el boom de la construcción y demanda de metales) es físico, es más fácil controlarlo. Los algoritmos son más peligrosos: un gobierno puede controlar cuántos chips produce una empresa, pero no lo que desarrollan ciertos programadores en un despacho.

Desde el punto de vista de las empresas que compiten en la carrera de IA, es preferible invertir en desarrollo de poder computacional, porque ese se queda en la empresa a pesar de que los empleados se vayan. Invertir en el desarrollo de algoritmos es más riesgoso, porque si los empleados que desarrollan los algoritmos se van se llevan su capacidad creativa, y también pueden llevarse su código a otra empresa. Así que tenemos una ventaja: a las empresas les interesa más invertir en aquello que también es más fácil de regular.

Una forma de pensar la amenaza de la IA es que cuando se convierta en superinteligencia (es decir, que supere la capacidad humana en todas las áreas) será un problema. Esta visión implica que hoy no es un problema, pero que lo será en algún momento. Bajo ese supuesto, el desarrollo de la IA debe continuar hoy, pero en algún momento, antes de que sea demasiado, hay que detenerlo. Un poco como el cáncer: la reproducción de células está bien, pero demasiada reproducción genera muerte.

El problema es que nadie sabe cuál es ese límite de desarrollo que no debe cruzarse en la IA. Ningún grupo de legisladores será capaz de decir ‘paren la creación de nuevos modelos de Chatgpt ahora’, justo antes de que se convierta en superinteligente, así que este enfoque no es viable. Además, como casi todo en la vida, la IA ya tiene ciertas consecuencias perjudiciales. Con toda seguridad más de un gobierno ya la ha usado para capturar a enemigos políticos. Quisiéramos que esas consecuencias negativas desaparezcan, pero regular la IA para que solo se use de forma buena es, en la práctica, imposible. Y no vamos a prohibir la IA -y por ende a privarnos de todos los beneficios- solo para evitar ciertos usos malos (efectos negativos que no son más que los beneficios para la sociedad en su conjunto). Similar a los coches: no vamos a prohibir el uso de autos solo porque algunas personas manejan mal y provocan choques.

Ahora pensemos en la regulación de la competencia. En la situación actual, muchas empresas distintas compitiendo por tener la IA más avanzada, las empresas prefieren invertir más en poder computacional que en desarrollo de capital humano, porque, como ya dije, los empleados pueden irse y todo lo que aportaban se va con ellos (aunque eso no significa que inviertan cero en sus empleados, porque los necesitan para ganarle a su competencia). Por otro lado, los incentivos que tienen todas las empresas las llevan a querer mejorar la IA todo el tiempo, y a hacerlo cada vez más rápido, porque así es como aumentan sus ganancias. Es decir, todos los incentivos están alineados para desarrollar una superinteligencia lo más pronto posible. Si la superinteligencia es una amenaza, entonces la competencia de muchas empresas no es buena opción.

El caso opuesto: un monopolio. El monopolio, por definición, no tiene competidores, es el único. Así que puede invertir libremente en el desarrollo de sus programadores, porque no corre el riesgo de que se vayan a otra empresa, pero tampoco lo hará de forma desesperada, porque no está en una carrera frenética contra otros negocios que quieren quitarle sus clientes; el monopolio es la única opción en el mercado, así que todos los clientes son suyos. El monopolio, entonces, mejora la IA mucho más lento que un ambiente en el que compiten muchas empresas, lo cual le da a la sociedad más tiempo para reflexionar sobre las implicaciones de cada mejora, y pensar es momento de parar (incluso puede que el monopolio no mejore la IA, porque no tiene presión para innovar). Si la IA es una amenaza para la humanidad tener un monopolio parece ser una mejor vía.

Pero la realidad nunca se comporta tan inmaculadamente como la teoría. La competencia entre empresas nunca es completamente libre, siempre hay cierta regulación y nivel monopolístico: hoy unas pocas empresas se dividen el pastel del negocio de la IA, así que sí, tenemos una carrera, pero apenas entre unos pocos. Y el monopolio es una quimera: si el gobierno hoy decide que solo Google puede desarrollar IA, por ejemplo, eso volverá más ineficiente toda la sociedad e incrementará los costos para todos, pero de ninguna manera significa que solo Google desarrollará IA: miles -si no millones- de personas seguirán trabajando en mejorar modelos de IA desde sus casas, a escondidas, de forma clandestina, igual que la prohibición mundial sobre las drogas no impide que todos los días las personas las consuman en todo el mundo. Esta, entonces, no es una apología del monopolio, ni mucho menos una propuesta para que el gobierno tome el control de la IA, sino una breve muestra de que el desarrollo de la IA continuará, y podemos afirmarlo con una seguridad similar a la que tenemos cuando decimos que mañana saldrá el sol otra vez.

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

Comentarios