Más Información

Reportan 631 autos robados en hechos violentos tras caída de "El Mencho"; fue un "evento atípico", dice AMIS

La narconómina de "El Mencho": claves, sueldos y flores para San Judas; esto ganaban pistoleros, "halcones" y "comandantes" del CJNG

Reportan fuerte despliegue militar en ejido Sandoval en Matamoros, Tamaulipas; ciudadanos se mantienen en alerta

Fórmula de distribución de plurinominales no se modifica en propuesta de Sheinbaum; solo cambia integración de las listas, explica Alcalde

TV Azteca se va a concurso mercantil voluntario; reorganización financiera llega tras pago de impuestos de Grupo Salinas al SAT

UIF y Oficina de Impuestos de EU intercambiarán inteligencia financiera; es para detectar flujos ligados a delitos transnacionales

Marx Arriaga acusa a Maru Campos y a Mario Delgado de impedir su regreso como académico; se reintegrará en segundo ciclo 2026

Detienen a 4 prófugos que escaparon de prisión el 22 de febrero en Puerto Vallarta; van por 19 fugitivos más

México debe aumentar crecimiento, fortalecer Estado de derecho, y actuar contra el crimen: OCDE; aún puede subir la recaudación, dice
Geoffrey Hinton dedicó su carrera a investigar la red neuronal, un sistema matemático y computacional que aprende habilidades mediante el análisis de datos y dio inicio al desarrollo de la Inteligencia Artificial (IA).
Ahora que Google y Microsoft se enfrentan en una agresiva competencia por crear productos basados en IA, como el popular ChatGPT, Hinton se suma al coro de críticos que advierten que esta tecnología amenaza a la humanidad.
"Me consuelo con la excusa normal: si no lo hubiera hecho yo, lo habría hecho alguien más", dijo el informático británico de 75 años, conocido como el "padrino de la inteligencia artificial", en una entrevista publicada este lunes por el diario estadounidense The New York Times.
Después de haber renunciado a su empleo en Google, Hinton compartió sus temores con respecto al desarrollo de una tecnología que funciona mejor que el cerebro humano y que nadie tiene garantías de cómo podrá mantenerse bajo control.
"No creo que deban ampliar esto más hasta que hayan entendido si pueden controlarlo", dijo Hinton, quien ganó en 2018 junto con dos de sus estudiantes el Premio Turing, conocido como el Nobel de computación.
Dijo estar convencido de que a medida que las empresas mejoran su IA, los sistemas se vuelven cada vez más peligrosos. "Mira cómo era hace cinco años y cómo es ahora", aseguró. "Toma la diferencia y proyéctala hacia adelante. Es atemorizante".
Lee también: Inteligencia artificial desde la seguridad internacional, estudios de conflictividad y paz
Google versus Microsoft
En primer lugar, Hinton analizó el impacto que la IA podría tener en el consumo de contenidos digitales. Su preocupación más inmediata es que internet se llenará con fotos, videos y textos falsos y el usuario promedio "ya no podrá saber qué es verdad".
En su opinión, Google actuó "de forma muy responsable" y como un "buen administrador" de la IA hasta el año pasado, tomando la precaución de no lanzar productos que pudieran hacer daño.
Sin embargo, desde que Microsoft expandió su motor de búsqueda Bing con un chatbot, desafiando el negocio central de Google, se desató una carrera entre los gigantes tecnológicos que "podría ser imposible de detener".
Después de que se publicara la entrevista, Hinton aclaró en su cuenta de Twitter que no había renunciado a Google para poder criticar la empresa. "En realidad, me fui para poder hablar sobre los peligros de la IA sin considerar cómo afecta esto a Google".
Lee también: IBM espera reemplazar casi 8 mil empleos con inteligencia artificial, reporta Bloomberg
"Robots asesinos"
Otra de las inquietudes de Hinton es cómo la IA revolucionará el mercado laboral. En lugar de complementar a los humanos, podría reemplazarlos en innumerables oficios en los que se desempeñan tareas rutinarias.
"Se quita el trabajo pesado", pero "podría quitar más que eso", indicó.
Su mayor preocupación es que las tecnologías en el futuro amenacen a la humanidad y se desarrollen armas verdaderamente autónomas, como "robots asesinos".
Los sistemas de IA "a menudo aprenden un comportamiento inesperado de la gran cantidad de datos que analizan", explicó. "Las personas y las empresas permiten a los sistemas de IA no solo generar su propio código, sino también ejecutar ese código por su cuenta".
"Algunas personas creían en la idea de que estas cosas podían volverse más inteligentes que las personas", dijo. "Pero la mayoría pensó que estaba muy lejos. Yo pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso".
Aunque se trata de una amenaza hipotética, Hinton vaticinó que la competencia entre Google, Microsoft y otros se convertirá en una carrera global sin regulaciones internacionales.
Recordó que a diferencia de las armas nucleares, no hay forma de saber si las empresas o los países están trabajando en la IA en secreto.
Su mayor esperanza es que los principales científicos del mundo colaboren en formas de controlar esta tecnología.
vare

Más Información
Noticias según tus intereses
ViveUSA
[Publicidad]














