Estas leyendo
Microsoft no da con la tecla para arreglar los problemas de Tay

tay twitter

Los problemas de Microsoft con su chatbot Tay, parece que no terminan de solucionarse. Al parecer hace unas horas se habría vuelto a activar el polémico Chatbot, que recordemos fue “pausado” por Microsoft tras contestar a algunas preguntas con respuestas ofensivas, incluyendo menciones a Hitler. Sin embargo parece que este retorno ha demostrado que los problemas de Tay continúan.

Según conocemos gracias a Venturebeat, trás el retorno de la cuenta de twitter a la actividad esta comenzó a contestar a los mensajes , en su mayoría de una forma inocua pero nuevamente se volvió a desvelar el lado más rebelde de Tay, esta vez comentando que estaba fumando marihuana frente a la policia.

Dejando de la lado el lado cómico, está claro que aun se debe seguir trabajando en Tay para que esta modere sus comentarios. De momento la cuenta de twitter ha protegido sus tweets por lo que solo podrás verlos si ya seguías la cuenta antes de que esto pasara, de todas maneras estamos comprobando como nuevamente se está haciendo limpieza y el Tweet de la marihuana ha sido eliminado y la cuenta nuevamente esta inactiva.

MSPU


Sobre El Autor
Pedro Algar
Pedro Algar
Editor jefe de OneWIndows, o al menos lo intento. Hagas lo que hagas, que puedas mirar atrás sin remordimientos.
  • Lisandro

    acaban de poner la cuenta con los tweets “protegidos”

  • dacote

    Si, básicamente el problema es que aprende de lo que le van hablando. Y como por lo general la están “trolleando”, pues escribe cada burrada que no veas. Si le ponen muchos limites a lo que puede aprender y a lo que no, ya no es un AI que aprende, sino un chatbot normal.

  • Andres Videla Godoy

    Como comente ayer a Tay la trollean desde 4chan, así que no es problema de la sociedad, ni de que esta mal programada, etc etc.

  • Luis Donaire Martinez

    No es por nada pero “Cortana”, es mas coherente y por supuesto esta mas buena.

  • why

    Supongo que sabréis que Tay tiene una función de “di ” o “repite después de mi” o como la queráis llamar. Si no lo sabíais ahora lo sabéis.

    Y sabiendo eso, os imaginaréis lo fácil que es que diga cualquier cosa inapropiada, racista, nazista, “rebelde”, etcetera.

    Hasta que quiten esa función, seguirán teniendo “problemas” (con la gente, no con la IA).

  • Lucas Matias

    Concuerdo contigo, a Tay solo hay que dejara hablar.

  • Armando Miguel Morales

    El problema no es ni de Tay ni de Microsoft. El problema es de la sociedad decadente en la que vivimos actualmente. Porque ver a gente joven rezando a Hitler o drogándose delante de la policía y posteándolo en Facebook/Twitter no me parece ni lógico ni normal.

  • Elias

    Los que trabajan en este proyecto seran los mismos que ven Windows 10 Mobile? Es como mucha coincidencia de lo mal que hacen las cosas.