Más Información

Reforma electoral destrabada; Morena confirma que Sheinbaum enviará la propuesta este miércoles a la Cámara de Diputados

Publican en el DOF decreto que reduce la jornada laboral a 40 horas; así aplicará la disminución año por año hasta 2030

Senado recibe iniciativa para acortar altas pensiones de exfuncionarios de CFE y Pemex; prevé ahorro de hasta 5 mil mdp anuales

A cinco días del 8M, hallan sin vida a Ana Karen en Edomex; desapareció tras abordar una DiDi Moto en San Antonio la Isla

Confirman que cuerpo localizado junto a la UAEM es de Kimberly Joselin; Fiscalía asegura que no habrá impunidad

"El Mencho" tenía presentes a Los Alegres del Barranco; en cartas le hablaban del grupo musical que cantaba su corrido

Dan 108 años de prisión a Alejandra “Candela” por delitos de secuestro; está ligada al grupo criminal “Los Rojos”

SCJN niega amparo a Walmart para tener 0% de IVA en todos los productos menstruales; argumenta “ventaja indebida en el mercado”
Google presentó este martes Proyecto Astra, su asistente de inteligencia artificial (IA) con "habilidades humanas" que le permiten ver, oír, recordar, asimilar y hablar; una herramienta futurista que previó lanzar a finales de año.
El anuncio, que hace unos años solo sería posible en el guion de una película de ciencia ficción, fue en parte eclipsado por su rival OpenAI, una empresa líder de la IA que ayer lunes presentó una función de asistente de voz similar.
En los dos casos, los usuarios podrán hacer una videollamada al asistente y preguntarle todo tipo de cuestiones.
Google mostró hoy varios ejemplos -según la compañía, grabados en directo y no manipulados de ninguna manera- en los que una de sus trabajadoras en Londres preguntó al asistente qué apodo le pondría a una mascota, le pidió ayuda con programas de codificación y matemáticos, y también para encontrar sus gafas, tras mostrarle una habitación.
Lee también: TikTok identificará los vídeos e imágenes creados con inteligencia artificial
Otra cualidad que tienen estas tecnologías es que pueden ser interrumpidas durante sus respuestas para pasar al siguiente punto de la conversación, y pueden tener distintas personalidades, aunque en ambos ejemplos se usó la voz de una mujer.
"Estos agentes se crearon sobre nuestro modelo Gemini y otros modelos de tareas específicas, y fueron diseñados para procesar información más rápido codificando continuamente cuadros de vídeo, combinando la entrada de vídeo y voz en una línea de tiempo de eventos y almacenando en caché esta información para recuperarla de manera eficiente", explica la empresa en un comunicado.
Usarla con gafas inteligentes
Google se sacó un as de la manga sorprendiendo con la posibilidad de usar esta tecnología con unas gafas inteligentes, además de con un teléfono. aunque la compañía no hizo anuncios específicos al respecto.
En su último evento de desarrolladores, Meta también apuntó que está desarrollando sus gafas inteligentes para que puedan acceder a su IA y contestar a los usuarios preguntas sobre lo que ven.
Son muchas las tecnológicas que este año han apostado por herramientas con IA que interactúan con el usuario sin la necesidad de un teléfono u ordenador -como The Rabbit R1 o Humane AI Pin-, pero ninguno, de momento, ha conseguido un éxito rotundo.
kicp/mcc
Más Información
Noticias según tus intereses
ViveUSA
[Publicidad]
















