Más Información

FGR confirma entrega del cuerpo de "El Mencho", exlíder del CJNG a familiares; se realizaron pruebas genéticas para identificarlo

"Hay indicios" de que el líder de Irán Alí Khamenei murió: Netanyahu; habría sido en los ataques de EU e Israel de este sábado

EN VIVO: EU e Israel atacan Irán; la República Islámica responde con ola de misiles, sigue aquí el minuto a minuto

Cae Jorge Yáñez, excontador de Emilio Lozoya en Querétaro; es acusado por defraudación de 28 mdp en el sexenio de Peña Nieto

"El Mencho" surtía fusiles Barretts, AK-47 y AR-15 a sus jefes de plaza; narconómina revela pagos en tecnología y hackers

SRE informa que no hay mexicanos lesionados por ataques de EU e Israel contra Irán; pide permanecer en lugares seguros

Llega a Cuba segundo cargamento de ayuda humanitaria de México a la isla; lleva casi mil 200 toneladas

Defensa va por unidades con máximo blindaje; deben soportar ataques de armas de alto calibre, granadas y explosivos
Nueva York.- La empresa tecnológica OpenAI, creadora del ChatGPT, suprimió su departamento enfocado en analizar los riesgos a futuro de la inteligencia artificial apenas un año después de establecerlo, informaron este viernes medios estadounidenses especializados.
Hasta hoy, se preveía destinar a esta división, que recibía el nombre de Superalignment, hasta un 20 % de la "potencia de cálculo" de OpenAI durante cuatro años para, entre otras líneas de investigación, evaluar posibles peligros aparejados a los nuevos escenarios que abre la inteligencia artificial.
Sin embargo, de acuerdo a la prensa de EU, la plantilla de esta sección está siendo recolocada en otras secciones dentro de la compañía.
La rivalidad de Sutskever y Altman dentro de OpenAI
La noticia llega días después de que el cofundador de OpenAI, Ilya Sutskever, y el que fuera codirector de Superalignment, Jan Leike, anunciaran su marcha alegando que esta empresa -respaldada por Microsoft- debería centrarse mucho más en la seguridad, la vigilancia, la preparación y el impacto social derivado de su actividad.
"Construir máquinas más inteligentes que los humanos es un esfuerzo inherentemente peligroso. OpenAI está asumiendo una enorme responsabilidad en nombre de toda la humanidad. Pero en los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos innovadores", escribió Leike en X tras su salida.
Lee también Consejo de Europa adopta el primer tratado internacional sobre inteligencia artificial

En noviembre, el consejo de OpenAI destituyó al cofundador y consejero delegado, Sam Altman, por una supuesta falta de honestidad que generó gran incertidumbre entre inversores y empleados.
Al cabo de una semana, Altman estaba de vuelta en la empresa y miembros del consejo como el propio Sutskever, que habían votado a favor de la destitución del consejero delegado, estaban fuera. Sutskever seguía en plantilla, pero ya no como miembro del consejo.
Medios como The Wall Street Journal informaban entonces de una pugna interna Altman-Sutskever porque este último prestaba mayor atención al impacto de la IA en los humanos, mientras que el primero estaba enfocado mayormente en seguir innovando.
OpenAI lanzó esta semana un nuevo modelo de IA (GPT-4) y una versión de escritorio de ChatGPT, junto con una interfaz actualizada, para tratar de conseguir que los usuarios puedan comunicarse por video con su bot conversacional ('chat bot', en inglés).
nro/mcc
Más Información
Noticias según tus intereses
ViveUSA
[Publicidad]















