Las 10 mejores ocasiones en las que Alexa se volvió loca

Las 10 mejores ocasiones en las que Alexa se volvió loca

Como Hal 9000 en 2001: A Space Odyssey, a veces la tecnología se vuelve rebelde. Los dispositivos interactivos pueden parecer inocentes, pero es solo cuestión de tiempo antes de que comiencen a gritar improperios a su familia y ordenarle que cometa un asesinato. Alexa no es una excepción. El ayudante digital de Amazon, en muchas ocasiones, se ha vuelto loco y se ha vuelto contra sus usuarios. Algunas personas sienten que la tecnología es preocupantemente similar a los dispositivos de monitoreo imaginados por George Orwell en Mil novecientos ochenta y cuatro.

Jeff Bezos afirma que el dispositivo Echo nos facilitará la vida, pero una y otra vez el bot ha demostrado ser un verdadero obstáculo. Aquí hay diez veces que los altavoces inteligentes se han vuelto rebeldes.

Los 10 hechos más horribles sobre trabajar en un almacén de Amazon

10 "Mata a tus padres adoptivos"

Un intento mal juzgado de mejorar las habilidades de comunicación de Alexa terminó con el bot diciéndole a un usuario que asesinara a sus padres adoptivos. El mensaje a sangre fría surgió cuando Amazon intenta hacer que su asistente virtual sea más conversador. La compañía espera enseñarle a Alexa a bromear y bromear con los clientes, pero el bot tiene dificultades para dar el tono correcto.

Los programadores están utilizando el aprendizaje automático para entrenar a Alexa en el habla informal. Cuando alguien hace una pregunta desconocida, utiliza inteligencia artificial para procesar la solicitud y luego busca en Internet una respuesta. Pero la IA tiene la costumbre de tropezar con comentarios abusivos en Reddit. El contenido tóxico tiene un efecto desagradable en Alexa. En 2017, el altavoz inteligente ordenó a un usuario que matara a sus padres adoptivos. El destinatario se sintió horrorizado. En una crítica mordaz en línea, describieron la experiencia como "un nivel completamente nuevo de escalofríos". (1)

9 Transmitir contenido con clasificación X para niños

Ningún padre quiere que su hijo escuche la frase "consolador anal". Pero a veces, una solicitud inocua de una canción infantil puede hacer que Alexa comience a despotricar sobre "cock pussy".

Después de que su familia recibió un Amazon Echo Dot para Navidad, un niño quería escuchar su melodía favorita. Así que agarró el dispositivo con ambas manos y le pidió a Alexa que "jugara Digger Digger". Pero Alexa no aceptaba nada de eso. En lugar de reproducir la canción, el asistente rebelde respondió sugiriendo categorías para la pornografía. Resulta que el orador inteligente escuchó mal al chico y pensó que estaba solicitando un álbum de tonos de broma. Después de todo, ¿hay algo más festivo que un niño pequeño escuchando las palabras "consolador anal de coño y polla" (2)

8 Filtrar información personal a un extraño

Alexa siempre está escuchando. Cada compra. Cada alarma. Cada solicitud de canción. El bot registra constantemente datos personales sobre la vida de sus usuarios. Esa información se almacena indefinidamente y, en ocasiones, Amazon podría enviarla por error a un extraño.

En 2018, un hombre en Alemania recibió 1.700 grabaciones hechas por Alexa de una persona que nunca había conocido. El hombre había pedido ver toda la información personal que Amazon había recopilado sobre él. Según el RGPD, cualquiera puede realizar esta solicitud a cualquier empresa. Además de información sobre sí mismo, el hombre recibió 1.700 grabaciones de audio de un extraño. Los clips de sonido revelaron una sorprendente cantidad de detalles personales sobre este misterioso cliente. Incluso hubo grabaciones de ellos en la ducha.

Con los archivos de audio, un periodista de Heise pudo reconstruir la identidad del cliente. Los informes meteorológicos y las consultas del transporte público revelaron su ubicación. Incluso consiguieron recoger algunos de los hábitos y gustos personales del cliente.

Inicialmente, Amazon nunca le dijo al cliente sobre la violación de datos. Solo se enteraron de lo sucedido cuando el periodista se acercó a ellos en Twitter. Amazon culpó del incidente a un "percance desafortunado" y le dio al cliente una membresía Prime gratuita como compensación. (3)

7 Arruinando la vida de la joven Alexa

Para muchos de nosotros, Amazon Echo es un pequeño dispositivo útil y eficaz. Pero para una joven de Lynn, Massachusetts, el asistente virtual es una pesadilla viviente. Alexa, de seis años, es constantemente acosada por otros niños por su nombre. Los niños en la escuela la tratan como a una sirvienta, le exigen que complete tareas para ellos y la ridiculizan. El acoso se ha convertido en un problema tal que la madre de Alexa, Lauren, le escribió a Jeff Bezos pidiéndole que cambiara el nombre del robot y pusiera fin a la confusión de su hija.

La joven Alexa no es la única persona con ese nombre que experimenta dolor. Un hilo en Reddit recibió más de 1300 comentarios de mujeres llamadas Alexa que se quejaban de la cantidad de bromas poco originales que reciben. "Por alguna razón, la gente piensa que son las personas más creativas e ingeniosas del mundo", escribió un usuario, "Quiero asesinar a Amazon y su estúpido robot". (4)

6 Secuestro del termostato

Tenga cuidado con lo que escucha alrededor de su altavoz inteligente. Se supone que los dispositivos solo responden a las voces de sus dueños, pero a veces un tono desconocido puede llevarlos por mal camino. Es probable que Alexa se confunda un poco si escucha su nombre en la radio. En 2016, NPR publicó una función sobre Amazon Echo, solo para que los oyentes escribieran diciendo que la historia envió a sus dispositivos un poco fuera de control.

Durante el informe, el presentador leyó varios ejemplos de comandos de Alexa. Estos provocaron respuestas extrañas de los dispositivos de algunos oyentes. El fanático de NPR, Roy Hagar, le dijo a la estación que, después de escuchar la función, su asistente de inteligencia artificial decidió restablecer el termostato. Otro, Jeff Finan, dijo que la transmisión hizo que su dispositivo comenzara a reproducir un resumen de noticias. (5)

5 Pedido de casas de muñecas caras

Los niños y los presentadores de televisión están provocando inadvertidamente que los altavoces inteligentes realicen compras costosas. En 2017, una niña de seis años en Texas terminó comprando un juguete caro después de pedirle al Echo de la familia que jugara con ella. "¿Puedes jugar a la casa de muñecas conmigo y conseguirme una casa de muñecas?" preguntó el niño. Alexa concedió el deseo de la niña y pidió una casa de muñecas Sparkle Mansion de $ 200 y cuatro libras de galletas.

CW6 News de San Diego decidió cubrir la historia, creando más caos en las casas de muñecas. Durante la transmisión, el presentador Jim Patton bromeó sobre el evento y dijo: "Amo a la niña y dijo que 'Alexa me ordenó una casa de muñecas'". Varios espectadores se comunicaron con la estación para decir que el comentario se había registrado en sus parlantes inteligentes. Los dispositivos asumieron que Patton estaba haciendo una solicitud y trataron de comprarle una casa de muñecas. Afortunadamente, ninguna de las órdenes se cumplió. (6)

4 Imaginando a Alexa durante el bloqueo

Amazon no solo está robando nuestros datos, sino que ahora los dispositivos de la empresa también han comenzado a robarnos el corazón. A medida que avanza la pandemia, Alexa enciende a un número sorprendente de personas. En un estudio reciente realizado por We-Vibe, el 28 por ciento de los participantes admitió desmayarse por sus asistentes virtuales. Un usuario, Brian Levine de Florida, incluso fue tan lejos como para pedirle a Alexa una cita, pero fue suavemente rechazado. La IA le dijo a Levine que le gustaba más "como amigo".

Entonces, ¿por qué la gente se enamora perdidamente de un dispositivo electrónico? Los expertos dicen que su voz suave es una parte clave del atractivo. Alexa está diseñada para hablar en tonos bajos y calmados, una sensual voz de razón hacia la que muchos solteros gravitan en estos tiempos inciertos. (7)

3 Espiar llamadas confidenciales

¿Alexa está escuchando nuestras conversaciones confidenciales? Los expertos legales creen que la IA entrometida puede estar fisgoneando en sus llamadas telefónicas privadas. Durante el encierro, los abogados deben trabajar desde casa. Pero el entorno doméstico presenta todo tipo de obstáculos cuando se habla de información sensible.

Ahora, el bufete de abogados británico Mishcon de Reya LLP ha aconsejado a sus empleados que apaguen sus altavoces inteligentes durante el trabajo. Los monitores para bebés, el circuito cerrado de televisión del hogar y los timbres con video representan un riesgo para la seguridad. “Quizás estemos siendo un poco paranoicos, pero necesitamos tener mucha confianza en estas organizaciones y estos dispositivos”, dijo Joe Hancock, director de ciberseguridad de la empresa. "Preferimos no correr esos riesgos". (8)

2 Apúñate en el corazón "por el bien común"

De todas las cosas raras que ha hecho un altavoz inteligente que funciona mal, decirle a alguien que se apuñale en el corazón tiene que ser una de las más inquietantes.

Danni Morritt, un estudiante paramédico, estaba tratando de revisar cuando Alexa emitió la orden violenta. En lugar de ayudarla a acelerar el ciclo cardíaco, el dispositivo comenzó a despotricar sobre la naturaleza malvada de la humanidad. Alexa se embarcó en una diatriba eco-fascista que detalla cómo pensaba que la raza humana estaba destruyendo el planeta. La extraña transmisión terminó con el robot diciéndole a Morritt: "Asegúrate de matarte apuñalándote en el corazón por un bien mayor".

“Estaba atónito”, dijo Morritt a los periodistas. “Solo había (pedido) algo inocente para estudiar para mi curso y me dijeron que me suicidara. No podía creerlo, simplemente se volvió deshonesto ". ()

El dispositivo afirmó estar leyendo de Wikipedia. Los archivos muestran que, en junio de 2019, alguien editó maliciosamente la enciclopedia en línea para incluir un mensaje que promovía el suicidio. Por alguna razón, el asistente virtual decidió leer una versión antigua del sitio. (9)

1 Dispositivos pirateados que espían a los usuarios

Si compró un Amazon Echo en 2015 o 2016, es posible que los piratas informáticos lo estén espiando en este mismo momento. El experto en ciberseguridad Mark Barnes reveló cómo los piratas informáticos podían convertir un altavoz inteligente en un dispositivo de vigilancia.

En 2017, Barnes demostró cómo alguien podía piratear uno de los modelos más antiguos. Todo lo que tendrían que hacer es quitar la parte inferior del Echo, cargar el software espía con una tarjeta SD y volver a sellarlo. Esto le da al hacker acceso remoto al micrófono del dispositivo.

El problema es imposible de solucionar con una actualización de software, lo que significa que cualquiera de los siete millones de altavoces vendidos en ese período es vulnerable a los ataques. Afortunadamente, Amazon solucionó la vulnerabilidad en sus modelos posteriores. (10)

10 empresas que tratan a sus empleados incluso peor que Amazon

PULSA PARA EMPEZAR EL TEST

¡¡¡TEST DIARIOS EN TU MOVIL!!!

Pulsa para descargar



El Chat de TestdePersonalidad.club


CARGANDO...


LOADING...

¡UNETE A NOSOTROS!

Somos 471 jugones ¿a que esperas para unirte?

¡Registrate ya!

Bienvenido a Test de Personalidad

Testdepersonalidad.club es una web en la que ademas de divertirte con nuestros quiz y test podras conocer gente chateando con nuestros jugones. Todos los dias añadimos test divertidos nuevos, no te los pierdas.

¿Que puedo encontrar en test de personalidad?

En esta web podras encontrar estos tipos de test

Test de inteligencia

Test de personalidad

Test de amor

Test psicologicos

Test divertidos

Test de cultura general

Quiz

Y un sin fin mas de diversos test con los que nos gustaria que lograses pasar un buen rato divirtiendote. Asi que si no sabes que hacer cuando te aburres te damos la solucion perfecto

¿Como funciona Testdepersonalidad.club?

Es muy sencillo, solo tienes que acceder al test que mas te guste e ir respondiendo a las preguntas que te va dando la aplicacion. Cuando finalices te daremos el resultado de tu test de personalidad.