Zo, el nuevo ChatBot de Microsoft, esta vez para Kik Messenger

Zo, el nuevo ChatBot de Microsoft, esta vez para Kik Messenger

zoai

Los Chatbot son una de las apuestas de futuro de Microsoft y tratan de introducirlos en cualquier momento que tengan posibilidad, hasta el punto que es una de las novedades que presentaron en su reciente acuerdo con LaLiga. Sin  embargo sus precedentes no han sido muy afortunados, todos recordamos a Tay, un Chatbot que fue lanzado para diversos servicios y fue retirado al poco debido a sus respuestas y comentarios, llamémosles «inapropiados» por ser suaves. Sin embargo este varapalo no ha desanimado a los de Redmond, aunque parece que les ha hecho más prudentes.

Hoy conocemos la existencia Zo.AI, un nuevo ChatBot aparentemente de Microsoft, ya que en esta ocasión no ha sido anunciado sino que ha sido un usuario quien lo ha encontrado en el servicio de mensajería Kik Messenger, se ve que Microsoft quiere asegurarse de que todo va bien antes de su lanzamiento oficial.

Al parecer ZO ha sido programado para que aprenda a no meterse en situaciones comprometidas, si le hacemos preguntas de carácter político, racial, etc. se sale por la tangente y evita la pregunta. Sin embargo ya sabéis que nos gusta probar estas cosas antes de presentaroslas, en pocos minutos de conversación hemos notado que Zo aún esta muy verde y sus respuestas a veces se van del tema, además de cometer algunos pequeños traspiés, como el recomendarnos una búsqueda en Google como vemos a continuación. Aunque a su favor hay que decir que incluso con alguna que otra falta de ortografía Zo nos suele responder.

Zo.ai

Por supuesto esto es solo una anécdota en base a que Zo va aprendiendo según charle con los usuarios, de momento al menos parece que no repite errores pasados, lo que es un gran avance. Es de suponer que si todo va bien más adelante Zo este disponible en otros servicios y redes sociales.

Microsoft no da con la tecla para arreglar los problemas de Tay

tay twitter

tay twitter

Los problemas de Microsoft con su chatbot Tay, parece que no terminan de solucionarse. Al parecer hace unas horas se habría vuelto a activar el polémico Chatbot, que recordemos fue «pausado» por Microsoft tras contestar a algunas preguntas con respuestas ofensivas, incluyendo menciones a Hitler. Sin embargo parece que este retorno ha demostrado que los problemas de Tay continúan.

Según conocemos gracias a Venturebeat, trás el retorno de la cuenta de twitter a la actividad esta comenzó a contestar a los mensajes , en su mayoría de una forma inocua pero nuevamente se volvió a desvelar el lado más rebelde de Tay, esta vez comentando que estaba fumando marihuana frente a la policia.

Dejando de la lado el lado cómico, está claro que aun se debe seguir trabajando en Tay para que esta modere sus comentarios. De momento la cuenta de twitter ha protegido sus tweets por lo que solo podrás verlos si ya seguías la cuenta antes de que esto pasara, de todas maneras estamos comprobando como nuevamente se está haciendo limpieza y el Tweet de la marihuana ha sido eliminado y la cuenta nuevamente esta inactiva.

MSPU

Microsoft presenta Tay, su «Cortana» para Twitter, Kik y GroupMe [En mantenimiento]

tay twitter

tay twitter

Desde su lanzamiento Cortana ha demostrado ser el referente en cuanto a asistentes digitales, a pesar de ser la última en llegar ha conseguido el reconocimiento de sus compertidores. Ahora Microsoft quiere alcanzar el mismo nivel en otros campos con Tay, un chatbot para redes sociales con cuya cuenta podemos chatear sobre cualquier cosa, ya sea mediante mención o mediante mensaje directo.

Tay es una especia de versión de Cortana para jovenes, ya que está pensada para interactuar con persona cuyo rango de edad esté situado entre los 18 y los 24 años, especificamente residentes en Estados Unidos. Es decir solo podremos comunicarnos con ella en Inglés, al menos de momento. La nueva Chatbot se puede usar en Twitter, Kik y GroupMe como vemos en su web.

tay ai

Al igual que su hermana mayor se apoya en la potencia Bing para poder mantener una conversación y contestar a nuestras preguntas, no solo con respuesta, sino también con alguna que otra broma. Puedes probar Tay en Twitter con su cuenta.

¿Que te parece Tay?.

Actualizada: Microsoft se ha visto obligada a «suspender» el chatbot a las pocas horas de su lanzamiento, el motivo es más bien triste y da que pensar.

https://twitter.com/geraldmellor/status/712880710328139776?ref_src=twsrc%5Etfw

Tay obtenía parte de sus conocimientos y aprendizaje de la interacción con los usuarios, recordemos que estaba enfocada a un público entre 18 y 24 años, pues bien este aprendizaje la ha llevado a dar contestaciones de tinte racista, xenofobo e insultante, lo que ha hecho que Microsoft opte por detener el uso del chatbot y retirar esos comentarios. Ahora si intentamos comunicarnos con ella nos dirá que están actualizándola. No sabemos hasta cuando puede durar esta situación y Microsoft consiga implementar las medidas para evitar que esto vuelva a suceder.

MSPU Walkingcat

Salir de la versión móvil