Más Información
SRE confirma que no hay mexicanos muertos en incendios en California; lamenta fallecimiento de 5 personas
Impactan con proyectos sociales a un millón de personas en 2024: informe; población vulnerable es prioridad
Lenia Batres busca destitución del Comité de Evaluación del PJF; se excedieron en sus facultades, acusa
El reloj que enfrenta a Luisa Alcalde y García Soto: “¿cómo lo consiguió y quién los mandó a hacer?”, cuestionan
Comité de Evaluación del Legislativo califica suspensión de elección judicial de improcedente; continuará proceso
#ConElOjoCuadrado
El sistema inteligente de Amazon Echo y su asistente de voz Alexa, interpretaron un bochornoso momento, cuando al ser utilizado por un pequeño, este le solicita al Amazon Echo que toque su canción favorita.
Sin embargo, el asistente no comprendió la solicitud, por lo que respondió un título muy diferente al pedido.
El momento quedó registrado a través del canal de YouTube f0t0b0y, en donde observamos cómo el chico activa a Alexa para pedirle que le cante la canción infantil Twinkle Twinkle Little Star, pero en lugar de eso obtuvo como respuesta:
"Porn Detected! (Porno Ringtone Hot Chick Amateur Girl Calling Sexy Fuck Cunt Shit Sex Cock Pussy Anal Dildo Ringtones for Android)"
Los padres del pequeño se sobresaltaron y no permitieron que la inteligencia artificial terminará de reproducir el contenido encontrado.
En cuanto a la respuesta de Alexa, no es que el asistente haya fallado del todo, ya que debido a la mala pronunciación del niño y su basta base de datos, la llevó a recomendarle un RingTone de mal gusto, disponible en Spotify y muchos otros servicios de música por streaming.