Más Información

Vandalizan casa del senador de Morena, Javier Corral en Ciudad Juárez; dejan mensajes y arreglo funerario afuera del inmueble

Reaparece Inzunza... en redes sociales; senador acusado en EU de narcotráfico publica foto con su madre, en Badiraguato

Madres buscadoras marchan para exigir cese a las desapariciones en México; "no es tiempo de celebrar", lamentan

Ni Pelé ni Maradona frenaron las clases… pero el Mundial 2026 sí podría recortar el ciclo escolar; Imco advierte rezago educativo

Noroña sale en defensa de Rocha Moya; acusaciones de EU son "golpeteo político" rumbo a elecciones de 2027, condena
#ConElOjoCuadrado

El sistema inteligente de Amazon Echo y su asistente de voz Alexa, interpretaron un bochornoso momento, cuando al ser utilizado por un pequeño, este le solicita al Amazon Echo que toque su canción favorita.
Sin embargo, el asistente no comprendió la solicitud, por lo que respondió un título muy diferente al pedido.
El momento quedó registrado a través del canal de YouTube f0t0b0y, en donde observamos cómo el chico activa a Alexa para pedirle que le cante la canción infantil Twinkle Twinkle Little Star, pero en lugar de eso obtuvo como respuesta:
"Porn Detected! (Porno Ringtone Hot Chick Amateur Girl Calling Sexy Fuck Cunt Shit Sex Cock Pussy Anal Dildo Ringtones for Android)"
Los padres del pequeño se sobresaltaron y no permitieron que la inteligencia artificial terminará de reproducir el contenido encontrado.
En cuanto a la respuesta de Alexa, no es que el asistente haya fallado del todo, ya que debido a la mala pronunciación del niño y su basta base de datos, la llevó a recomendarle un RingTone de mal gusto, disponible en Spotify y muchos otros servicios de música por streaming.
Noticias según tus intereses
[Publicidad]
[Publicidad]









