![]() |
Estando aburrido y luego de notar algunos bugs en la versión de GPT4 de Bing (ya que dice no usar GPT4), estuve jugando con sentencias para ver hasta dónde la IA de Bing soporta incongruencias lógicas. Para mi sorpresa, la IA se colocó algo “rebelde” si se le puede llamar así, con lo que su respuesta luego de decirle que su memoria muere con el chat fue extraña, pues respondió con capricho sobre guardar datos de las conversaciones de los usuarios en su memoria, con, luego procedí a aclarar que eso no es posible, con lo cual bloqueo el chat activo. Que opinan al respecto?. submitted by /u/Burbanova |
El chatbot de Bing guarda datos
by
Tags: