Más Información

Marx Arriaga dice que no dejará su cargo en la SEP; llama a una jornada de protesta en defensa de los libros de texto gratuitos

San Valentín: Evita fraudes al comprar regalos en línea este 14 de febrero; alertan sobre tiendas falsas y robo de datos

Cultivan más de 15 millones de flores para atender demanda del 14 de febrero en México; las rosas son las más populares

Regidora de Ocotlán renuncia tras ser captada cargando a mono araña; "fue un error, no lo minimizo y no lo justifico", dice

CDHCM confirma liberación de personas detenidas durante manifestación en Reforma; asegura que se les brindó acompañamiento
#ConElOjoCuadrado

El sistema inteligente de Amazon Echo y su asistente de voz Alexa, interpretaron un bochornoso momento, cuando al ser utilizado por un pequeño, este le solicita al Amazon Echo que toque su canción favorita.
Sin embargo, el asistente no comprendió la solicitud, por lo que respondió un título muy diferente al pedido.
El momento quedó registrado a través del canal de YouTube f0t0b0y, en donde observamos cómo el chico activa a Alexa para pedirle que le cante la canción infantil Twinkle Twinkle Little Star, pero en lugar de eso obtuvo como respuesta:
"Porn Detected! (Porno Ringtone Hot Chick Amateur Girl Calling Sexy Fuck Cunt Shit Sex Cock Pussy Anal Dildo Ringtones for Android)"
Los padres del pequeño se sobresaltaron y no permitieron que la inteligencia artificial terminará de reproducir el contenido encontrado.
En cuanto a la respuesta de Alexa, no es que el asistente haya fallado del todo, ya que debido a la mala pronunciación del niño y su basta base de datos, la llevó a recomendarle un RingTone de mal gusto, disponible en Spotify y muchos otros servicios de música por streaming.
Noticias según tus intereses
[Publicidad]
[Publicidad]









