Más Información

Seguridad de Chiapas se abre a indagatoria por narconómina; “no tenemos nada que ocultar”, dice secretario

Pescadores retoman labores en Vallarta tras semana de violencia por “El Mencho”; “un domingo tranquilo con buena pesca”, dicen

Policía de élite de Chiapas con historial de denuncias y detenciones; esta es la fuerza especial que aparece en la narconómina del CJNG

Concierto de Shakira comienza a llenar el Zócalo capitalino; redoblan vigilancia en primer cuadro de la CDMX

Gobernador de Chiapas anuncia investigación a elementos de unidad policial tras presuntos pagos del CJNG; hecho fue revelado por EL UNIVERSAL

Municipios en narconómina del CJNG presentan bajos niveles de violencia; especialistas apuntan a la “pax narca”
Boston.- Microsoft dijo el miércoles que adversarios de Estados Unidos —principalmente Irán y Corea del Norte y, en menor medida, Rusia y China— están comenzando a utilizar inteligencia artificial generativa para montar u organizar operaciones cibernéticas ofensivas.
El gigante tecnológico dijo que detectó e interrumpió, en colaboración con su socio comercial OpenAI, amenazas que utilizaban o intentaban explotar la tecnología de inteligencia artificial (IA) que ellos desarrollaron.
En un blog, la compañía de Redmond, Washington, dijo que las técnicas estaban en “etapa inicial” y no eran “particularmente novedosas o únicas”, pero que era importante exponerlas públicamente a medida que los rivales de Estados Unidos aprovechan los modelos de lenguaje de gran tamaño para expandir su capacidad de infiltrarse en redes y realizar operaciones de influencia.
Las empresas de ciberseguridad llevan mucho tiempo utilizando el aprendizaje automático en defensa, principalmente para detectar comportamientos anómalos en las redes. Pero los delincuentes y hackers también lo utilizan, y la introducción de modelos de lenguaje grande liderados por ChatGPT de OpenAI incrementó ese juego del gato y el ratón.
Lee también Países de la Unión Europea aprueban propuesta de legislación sobre inteligencia artificial
Microsoft ha invertido miles de millones de dólares en OpenAI, y el anuncio del miércoles coincidió con la publicación de un informe que señala que se espera que la inteligencia artificial generativa incremente la ingeniería social maliciosa, lo que conducirá a deepfakes (resultados hiperreales) y clonación de voz más sofisticados. Una amenaza a la democracia en un año en el que más de 50 países celebrarán elecciones, magnificando la desinformación y que ya está ocurriendo.
Uno de los ejemplos proporcionados por Microsoft es el grupo de ciberespionaje norcoreano conocido como Kimsuky, el cual ha utilizado los modelos para investigar a centros de análisis extranjeros y generar contenido que probablemente se utilice en campañas de hackeo.
Otro caso es la unidad de la inteligencia militar rusa GRU conocida como Fancy Bear, la cual ha utilizado la inteligencia artificial para investigar tecnologías de satélites y radares que pueden estar relacionadas con la guerra en Ucrania.
El miércoles, en otro blog, OpenAI dijo que su actual chatbot modelo GPT-4 ofrece “sólo capacidades incrementales limitadas para tareas de ciberseguridad maliciosas más allá de lo que ya se puede lograr con herramientas disponibles públicamente y sin tecnología de IA”.
Lee también Meta etiquetará en sus redes sociales las imágenes generadas por inteligencia artificial
mcc
Más Información
Noticias según tus intereses
ViveUSA
[Publicidad]

















