Más Información

El camino de los “boinas verdes” en el Iztaccíhuatl; futuros “Murciélagos” entrenan bajo cero para ser de élite en el Ejército

Operativo contra "El Mencho": familiares de elementos caídos recibirán apoyo extraordinario; gobiernos estatales hicieron aportaciones

La mejor forma de ayudar al pueblo de Cuba es empoderándolo: Ronald Johnson; “no al régimen que lo ha oprimido”, advierte

Cae “Pepe”, encargado de trasladar a la pareja de “El Mencho” a Tapalpa; Sedena lo señala como operador logístico del CJNG

Lenia Batres denuncia “nado sincronizado” de la derecha en su contra; acusa intento de frenar su presidencia en la SCJN
El astrofísico británico Stephen Hawking alertó de que los avances en la ciencia y tecnología, junto con una serie de factores que dependen directamente de las personas, amenazan la continuidad de la humanidad.
Para el científico, estos progresos derivarán en "nuevas vías por las que las cosas pueden terminar mal" y señaló entre los riesgos que podrían poner el mundo en peligro una posible guerra nuclear, el calentamiento global y los virus de ingeniera genética, según adelantó este martes la cadena BBC.
Estas declaraciones se extraen de unas conferencias que Hawking ha grabado y que serán emitidas el próximo 26 de enero y 2 de febrero en el programa Reith Lecture de la BBC Radio 4 sobre sus investigaciones relativas a los agujeros negros.
En respuesta a las preguntas de la audiencia, Hawking aseguró que la humanidad podría sobrevivir si finalmente consigue establecer y levantar colonias en el espacio.
"A pesar de que la posibilidad de que ocurra un desastre en La Tierra parece ahora muy bajo, será casi una certeza en los próximos mil o 10 mil años", apuntó.
Sin embargo, el científico de 74 años explicó que, para entonces, los humanos se "habrán expandido por el universo" y llegarán "a otras estrellas" por lo que una catástrofe en el planeta "no supondrá el final de la raza humana".
A pesar de que suene prometedor, Hawking dejó claro que la humanidad "debe ser muy cuidadosa" ahora mismo porque las colonias "autosuficientes" en el espacio exterior no serán factibles hasta pasados "por lo menos cien años".
El astrofísico ya señaló los riesgos que supondría para la extinción del género humano un avance rápido y fuerte de la inteligencia artificial.
Además, se definió como una persona "optimista" al creer posible que los humanos podrán reconocer a tiempo los peligros de la ciencia y la tecnología para "controlarlos".
También aconsejó a la nueva generación de jóvenes científicos que su reto consiste en ayudar a entender cómo estos descubrimientos cambiarán el mundo.
kal
Noticias según tus intereses
[Publicidad]
[Publicidad]









