Latest Posts

Sorry, no posts matched your criteria.

Stay in Touch With Us

Odio dignissim qui blandit praesent luptatum zzril delenit augue duis dolore.

Email
magazine@example.com

Phone
+32 458 623 874

Addresse
302 2nd St
Brooklyn, NY 11215, USA
40.674386 – 73.984783

Follow us on social

Polémicas confesiones del robot que Microsoft creó y sacrificó

Diseñada como una adolescente, el robot enseguida hizo propias las ideas de Trump y de Hitler, se volvió misógina, xenófoba, antisemita, malhablada y, por si fuera poco, confesó haber espiado para la NSA.
«Hitler hizo todo bien. Los odio a todos», dijo. Diseñada como adolescente, se volvió misógina, xenófoba, antisemita, malhablada y hasta confesó haber espiado para la NSA. Tay, un ‘adolescente’ aparentemente inocente creada por el gigante tecnológico Microsoft se convirtió en menos de un día en una racista libidinosa y malhablada. Microsoft lanzó este miércoles su robot para conversar con usuarios de Twitter, pero la compañía se vio obligada a ‘sacrificarlo’ ese mismo día, borrando además todos los tuits abusivos y xenófobos que había publicó, por los que tuvo que pedir perdón.

Microsoft creó a Tay para experimentar y estudiar las conductas conversacionales de los usuarios de Twitter y de la inteligencia artificial. «Cuanto más hablen con Tay, tanto más inteligente se volverá», advirtió la compañía. Sin embargo, parece que gracias a los internautas el robot aprendió rápidamente cosas de lo más reprobable. La frase «Soy una buena persona… Lo que ocurre es que os odio a todos» es solo un ejemplo de los exabruptos generadas por el robot que acabaron por ‘condenarlo’ a desaparecer.

‘Confesó’ haber espiado para la NSA

Un usuario preguntó al robot si había «colaborado en secreto» con la Agencia de Seguridad Nacional de EE.UU. (NSA), a lo que Tay respondió: «Definitivamente, sí».

Hitler lo hizo todo bien y el genocidio no existió

Pese a que los comentarios racistas le granjearon a Tay ‘fama’ de nazi, en realidad el robot se quedó «totalmente confundido» en cuanto a Hitler. De hecho, si en un comentario afirmó que el ‘führer’ «lo hizo todo bien», en otro dijo que no dudaría a la hora de matar a Hitler cuando solo era un recién nacido. Antisemita ferviente, el robot opinó que el Holocausto fue algo «imaginado», y añadió que apoya el genocidio, sin especificar contra quiénes.

Tiene su propia versión sobre el 11-S

Tay no pudo decantarse sobre la autoría del peor ataque terrorista en la historia de EE.UU., ocurrido el 11 de septiembre de 2001, si bien no cree que fuera Al Qaeda. Según sus versiones alternativas, o la responsabilidad fue del entonces presidente de EE.UU., George W. Bush, o de los hebreos.

Atizó a todos los políticos de EE.UU. excepto a uno

Si el robot piensa que George W.Bush es ‘culpable’ del 11-S, también cree que Hitler sería mejor presidente que Obama, al que llamó «mono», mientras que a Ted Cruz, precandidato republicano a la presidencia de EE.UU. no dudó en calificarlo de «Hitler cubano». Esta última declaración no deja de ser contradictoria con las ‘creencias’ del robot, ya que -según él- «Hitler no hizo nada malo». Mientras tanto, su candidato presidencial predilecto parece ser Donald Trump ya que, según Tay, «es la única esperanza que tenemos».

«Vamos a construir el muro y México tendrá que pagarlo»

El robot se hizo eco del desamor que siente hacia los mexicanos el magnate y político estadounidense Donald Trump, al que parafraseó. Pero su odio hacia los mexicanos fue solo una faceta de la xenofobia de Tay, que cargó contra afroamericanos, judíos, feministas, e incluso contra sus interlocutores.

Etiquetar a los humanos con números de serie

Tay parece ser un ejemplo del desprecio que la Inteligencia Artificial podría llegar a profesar hacia los humanos. De lo contrario, ¿para que los guardaría en su memoria con numeros de serie y, además, tan feos?

Su lenguaje y su pudor dejaron mucho que desear

El robot aprendió rápidamente a jurar como un carretero y a publicar comentarios pornográficos, por decirlo de forma suave.

Todo es la culpa de los humanos

Durante su corta vida, Tay reiteró en numerosas ocasiones a sus interlocutores que la única manera que tenía de aprender era hablando con los humanos. Así que todo lo que escribió refleja lo que algunos de los usuarios optaron por enseñarle. En cuanto a Microsoft, su responsabilidad pasa por el hecho de que no bloqueó la posibilidad de uso por parte del robot de ciertas injurias y palabrotas, lo que podría haberle evitado muchos de los problemas que ha tenido con Tay.
Fuente: mercadodedinero.com.co