En mi texto del mes pasado hablé de algunos objetos que han acoquinado a la humanidad, desde las cámaras, pasando por diabólicas bicicletas, hasta las novelas. En retrospectiva, estos miedos son patéticos. Hoy nadie piensa que las bicicletas representan un peligro para la sociedad, y nadie (espero) osaría recomendar en un periódico que los padres limiten la cantidad de libros que leen sus hijos.

Empero, tenemos otros miedos. Verbigracia, a la inteligencia artificial . Nos horroriza (y nos fascina) la idea de que haya máquinas más capaces que nosotros en todos los sentidos, que acaben por subyugarnos o decidan que nuestra inferioridad es indigna de existir y nos maten a todos. En parte, se lo debemos a la literatura que leemos y las películas que vemos (películas que, muchas veces, se basan en libros). Jill Lepore -profesora de historia en la Universidad de Harvard- asegura que vivimos una edad de oro de ficción distópica. El problema, dice, es que estas obras distópicas “no imaginan un futuro mejor, y no le piden a nadie que imagine un futuro mejor”; el único consejo que ofrecen es “pierde toda esperanza”.

Podemos cuestionar los supuestos de nuestra preocupación (el hecho de que logremos crear algo más inteligente que nosotros en todos los sentidos, ¿no mostraría lo grandiosa que es nuestra inteligencia, que somos capaces de ir allende de nosotros mismos?; por otro lado, ¿cuál es el problema con que la humanidad desaparezca? ¿Por qué estamos convencidos de que somos relevantes para el universo?), pero lo que me interesa aquí es pensar si nuestro miedo es legítimo.

Nick Bostrom -profesor de filosofía en Oxford- define la superinteligencia que tememos como “un intelecto que es mejor que los mejores cerebros humanos en prácticamente cualquier área, incluyendo creatividad, sabiduría general y habilidades sociales”. Bostrom también le teme a esa superinteligencia, y cree que hay razones muy válidas para ello, pero no todos piensan así.

Oren Etzioni -profesor emérito de la Universidad de Washington- entrevistó a ochenta miembros de la Asociación Gringa de Inteligencia Artificial (AAAI). Los miembros son investigadores -en su mayoría profesores universitarios- que han contribuido de manera constante y significativa al desarrollo del campo (de acuerdo con sus colegas).

Más del noventa por ciento de los investigadores (92.5) dijeron que la superinteligencia está fuera del alcance de la humanidad en el futuro cercano (25 años). La lógica es muy sencilla: el cerebro que hoy tenemos es resultado de millones de años de evolución. Crear algo más inteligente que nosotros en todos los aspectos significa ganarle la carrera al tiempo, construyendo en un pestañeo lo que la humanidad consiguió solo después de un luengo proceso.

El Instituto Allen de Inteligencia Artificial -fundado por Microsoft y Paul Allen- convocó alrededor de ochocientos equipos de investigadores a crear sistemas de inteligencia artificial que hicieran un examen de ciencia de segundo de secundaria. Ninguno obtuvo más del sesenta por ciento de las respuestas correctas.

En otra competencia, usando un diseño de Hector Levesque -profesor de la Universidad de Toronto-, los sistemas de inteligencia artificial tenían que entender oraciones ambiguas que los humanos desciframos fácilmente por el contexto. Por ejemplo, en la oración ‘los políticos negaron el permiso a los activistas porque tenían miedo de posibles actos vandálicos’, para nosotros es muy claro que los que “tenían miedo” son los políticos, pero para una computadora no es tan claro. A ese tipo de oraciones se enfrentaron los sistemas que participaron en la competencia. Los ganadores solo tuvieron bien el cuarenta y ocho por ciento de las respuestas. Si una persona hubiera elegido al azar, tendría, en promedio, el cuarenta y cinco por ciento de las respuestas correctas. Id est, nuestros sistemas de inteligencia artificial aún son pésimos entendiendo conversaciones básicas.

Para calmarnos todavía más, el veinticinco por ciento de los entrevistados aseguraron que nunca lograremos esa superinteligencia. Según ellos, podremos seguir creando máquinas avanzadas que resuelvan un tipo de problema mejor que los humanos, pero el mundo no está dividido diáfanamente en pequeños problemas aislados. Se parece más a una maraña hiperenredada e interconectada. Los problemas que enfrentamos en nuestra vida no están aislados, ni en lo individual ni en lo colectivo.

Así que podemos seguir disfrutando tranquilamente de la saga Terminator o cualquier otra fantasía apocalíptica que involucre máquinas. Los robots están lejos de gobernar el mundo.

Google News

TEMAS RELACIONADOS