Más Información

Trump anuncia nuevo arancel global del 10% tras revés de Corte Suprema; "tenemos excelentes alternativas", afirma

FGR, sin investigación abierta contra Karime Macías, exesposa de Javier Duarte; permanece asilada en Reino Unido

SRE pide información de familias mexicanas detenidas por el ICE en centro de Texas; prioriza casos de menores

José Ángel Gurría Treviño, el exfuncionario con pensión dorada; su paso por Nafin, Hacienda y la OCDE

Turnan a ministro Giovanni Figueroa el caso de Mario Aburto, asesino confeso de Colosio; resolverá si condena de 45 años es correcta

Mundial 2026: ¿Habrá alerta sanitaria por sarampión en México durante la Copa del Mundo?; esto dice Sheinbaum

Harfuch habla sobre sanciones de EU a resort de Puerto Vallarta ligada al CJNG; hay más casos en el país, dice

Marx Arriaga llama "mentiroso" a Mario Delgado; lo reta a demostrar que impidió incluir "mujeres en la historia" en libros de texto

Cédula profesional deja de ser un documento de identificación oficial; CURP es la "fuente única de identidad"
Autoridades locales en el estado de Connecticut, Estados Unidos, investigan un caso de asesinato-suicidio ocurrido en la localidad de Old Greenwich, que ha despertado atención internacional por la posible participación indirecta de un sistema de la Inteligencia Artificial (IA) en los hechos.
El caso involucra a Stein-Erik Soelberg, un hombre con antecedentes en la industria tecnológica, quien habría acabado con la vida de su madre antes de suicidarse.
La atención sobre el incidente creció luego de que se revelara que Soelberg mantenía una relación prolongada e intensa con un chatbot conversacional, con el cual interactuaba de manera frecuente.
ChatGPT influye en la paranoia de hombre que asesinó a su madre
El Wall Street Journal reportó que las conversaciones entre el individuo y ChatGPT fueron extensas y abarcaron temas personales delicados.
Según el medio estadounidense, investigadores y analistas están evaluando si estas interacciones pudieron influir en el deterioro de su salud mental o reforzar pensamientos distorsionados en los días previos al suceso.
El periódico señala que podría tratarse del primer evento de esta naturaleza vinculado con un chatbot basado en inteligencia artificial.
Lee también Cuando ChatGPT se convierte en el enemigo íntimo
La situación ha generado preocupación entre expertos en tecnología, salud mental y ética, especialmente en torno al uso no regulado de estas herramientas por parte de personas vulnerables.
Hasta el momento, no se han presentado conclusiones oficiales sobre la responsabilidad directa o indirecta de la tecnología en el hecho.
Sin embargo, el caso ha abierto un nuevo frente de debate sobre los posibles riesgos del uso individualizado y sin supervisión de sistemas de IA avanzados, en especial en contextos sensibles.
El incidente ocurre en un momento en el que las aplicaciones de inteligencia artificial ganan popularidad en todo el mundo, tanto en entornos productivos como personales, lo que refuerza los llamados a establecer normas más claras sobre su uso responsable.
Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.
acf/bmc
Más Información
Noticias según tus intereses
ViveUSA
[Publicidad]















