Más Información

Turnan a ministro Giovanni Figueroa el caso de Mario Aburto, asesino confeso de Colosio; resolverá si condena de 45 años es correcta

FGR, sin investigación abierta contra Karime Macías, exesposa de Javier Duarte; permanece asilada en Reino Unido

SRE pide información de familias mexicanas detenidas por el ICE en centro de Texas; prioriza casos de menores

José Ángel Gurría Treviño, el exfuncionario con pensión dorada; su paso por Nafin, Hacienda y la OCDE

Mundial 2026: ¿Habrá alerta sanitaria por sarampión en México durante la Copa del Mundo?; esto dice Sheinbaum
El astrofísico británico Stephen Hawking alertó de que los avances en la ciencia y tecnología, junto con una serie de factores que dependen directamente de las personas, amenazan la continuidad de la humanidad.
Para el científico, estos progresos derivarán en "nuevas vías por las que las cosas pueden terminar mal" y señaló entre los riesgos que podrían poner el mundo en peligro una posible guerra nuclear, el calentamiento global y los virus de ingeniera genética, según adelantó este martes la cadena BBC.
Estas declaraciones se extraen de unas conferencias que Hawking ha grabado y que serán emitidas el próximo 26 de enero y 2 de febrero en el programa Reith Lecture de la BBC Radio 4 sobre sus investigaciones relativas a los agujeros negros.
En respuesta a las preguntas de la audiencia, Hawking aseguró que la humanidad podría sobrevivir si finalmente consigue establecer y levantar colonias en el espacio.
"A pesar de que la posibilidad de que ocurra un desastre en La Tierra parece ahora muy bajo, será casi una certeza en los próximos mil o 10 mil años", apuntó.
Sin embargo, el científico de 74 años explicó que, para entonces, los humanos se "habrán expandido por el universo" y llegarán "a otras estrellas" por lo que una catástrofe en el planeta "no supondrá el final de la raza humana".
A pesar de que suene prometedor, Hawking dejó claro que la humanidad "debe ser muy cuidadosa" ahora mismo porque las colonias "autosuficientes" en el espacio exterior no serán factibles hasta pasados "por lo menos cien años".
El astrofísico ya señaló los riesgos que supondría para la extinción del género humano un avance rápido y fuerte de la inteligencia artificial.
Además, se definió como una persona "optimista" al creer posible que los humanos podrán reconocer a tiempo los peligros de la ciencia y la tecnología para "controlarlos".
También aconsejó a la nueva generación de jóvenes científicos que su reto consiste en ayudar a entender cómo estos descubrimientos cambiarán el mundo.
kal
Noticias según tus intereses
[Publicidad]
[Publicidad]








