Más Información

"Pensé que estaba temblando"; vecinos relatan el momento del colapso de edificio en San Antonio Abad

Empresario tabasqueño del fiestón de XV años acumuló deuda fiscal de 3 mdp; una de sus empresas omitió declarar venta de 7 millones de litros de combustible

"11 veces no"; las ocasiones en las que Sheinbaum ha rechazado la propuesta de Trump de intervención militar contra el narco

En marcha del 8M, Ivanna de 9 años exige sentencia para su violador; “las niñas no se tocan, no se violan, no se matan”, exigen

Sheinbaum acuerda con Lula da Silva visita a Brasil “entre junio y julio” de este año; sostienen llamada telefónica

Empresario de la fiesta de XV años es cercano a Pemex; tiene al menos dos contratos por más de 4 mil mdp

No hay esperanza de convencer al PT y PVEM en reforma electoral, insiste Monreal; “veo difícil que cambien su opinión”, dice
Autoridades locales en el estado de Connecticut, Estados Unidos, investigan un caso de asesinato-suicidio ocurrido en la localidad de Old Greenwich, que ha despertado atención internacional por la posible participación indirecta de un sistema de la Inteligencia Artificial (IA) en los hechos.
El caso involucra a Stein-Erik Soelberg, un hombre con antecedentes en la industria tecnológica, quien habría acabado con la vida de su madre antes de suicidarse.
La atención sobre el incidente creció luego de que se revelara que Soelberg mantenía una relación prolongada e intensa con un chatbot conversacional, con el cual interactuaba de manera frecuente.
ChatGPT influye en la paranoia de hombre que asesinó a su madre
El Wall Street Journal reportó que las conversaciones entre el individuo y ChatGPT fueron extensas y abarcaron temas personales delicados.
Según el medio estadounidense, investigadores y analistas están evaluando si estas interacciones pudieron influir en el deterioro de su salud mental o reforzar pensamientos distorsionados en los días previos al suceso.
El periódico señala que podría tratarse del primer evento de esta naturaleza vinculado con un chatbot basado en inteligencia artificial.
Lee también Cuando ChatGPT se convierte en el enemigo íntimo
La situación ha generado preocupación entre expertos en tecnología, salud mental y ética, especialmente en torno al uso no regulado de estas herramientas por parte de personas vulnerables.
Hasta el momento, no se han presentado conclusiones oficiales sobre la responsabilidad directa o indirecta de la tecnología en el hecho.
Sin embargo, el caso ha abierto un nuevo frente de debate sobre los posibles riesgos del uso individualizado y sin supervisión de sistemas de IA avanzados, en especial en contextos sensibles.
El incidente ocurre en un momento en el que las aplicaciones de inteligencia artificial ganan popularidad en todo el mundo, tanto en entornos productivos como personales, lo que refuerza los llamados a establecer normas más claras sobre su uso responsable.
Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.
acf/bmc
Más Información
Noticias según tus intereses
ViveUSA
[Publicidad]

















