Más Información

EU acusa a Jesús Omar Ibarra Félix, presunto líder del Cartel de Sinaloa, de narcotráfico y terrorismo; está prófugo

SRE reporta 121 mexicanos evacuados ante conflicto en Medio Oriente; analizan la seguridad de los corredores

Analistas suben inflación a 4% para este año; no se llegará a la meta en 2027 ni en 2028, según encuesta de Banxico

Cónsul Honorario de Filipinas es socio de empresa vinculada al CJNG; inmobiliaria fue sancionada por EU

Reestructura de TV Azteca no afecta el perfil crediticio de Elektra: Moody’s; regulación mitiga riesgos potenciales

Aseguran más de un millón de cigarros de procedencia ilícita; mercancía puede estar vinculada al crimen organizado

Sheinbaum: tras revisión, reforma electoral podría enviarse este miércoles; había cuestiones que no eran electorales, dice

Kershenobich: Trasplantes de órganos dejan de ser “heroicos”; destaca consolidación del proceso quirúrgico en el sistema de salud
Autoridades locales en el estado de Connecticut, Estados Unidos, investigan un caso de asesinato-suicidio ocurrido en la localidad de Old Greenwich, que ha despertado atención internacional por la posible participación indirecta de un sistema de la Inteligencia Artificial (IA) en los hechos.
El caso involucra a Stein-Erik Soelberg, un hombre con antecedentes en la industria tecnológica, quien habría acabado con la vida de su madre antes de suicidarse.
La atención sobre el incidente creció luego de que se revelara que Soelberg mantenía una relación prolongada e intensa con un chatbot conversacional, con el cual interactuaba de manera frecuente.
ChatGPT influye en la paranoia de hombre que asesinó a su madre
El Wall Street Journal reportó que las conversaciones entre el individuo y ChatGPT fueron extensas y abarcaron temas personales delicados.
Según el medio estadounidense, investigadores y analistas están evaluando si estas interacciones pudieron influir en el deterioro de su salud mental o reforzar pensamientos distorsionados en los días previos al suceso.
El periódico señala que podría tratarse del primer evento de esta naturaleza vinculado con un chatbot basado en inteligencia artificial.
Lee también Cuando ChatGPT se convierte en el enemigo íntimo
La situación ha generado preocupación entre expertos en tecnología, salud mental y ética, especialmente en torno al uso no regulado de estas herramientas por parte de personas vulnerables.
Hasta el momento, no se han presentado conclusiones oficiales sobre la responsabilidad directa o indirecta de la tecnología en el hecho.
Sin embargo, el caso ha abierto un nuevo frente de debate sobre los posibles riesgos del uso individualizado y sin supervisión de sistemas de IA avanzados, en especial en contextos sensibles.
El incidente ocurre en un momento en el que las aplicaciones de inteligencia artificial ganan popularidad en todo el mundo, tanto en entornos productivos como personales, lo que refuerza los llamados a establecer normas más claras sobre su uso responsable.
Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.
acf/bmc
Más Información
Noticias según tus intereses
ViveUSA
[Publicidad]
















