Microsoft Podría Almacenar tus Conversaciones: ¡Ten Cuidado!
Hola a todos! ¿Has usado el nuevo Bing con ChatGPT? Es una herramienta genial para buscar cosas y obtener respuestas. Pero ¡ten cuidado con lo que dices! Microsoft, la empresa detrás de Bing, ha hecho algunos cambios en sus reglas que podrían afectar tus conversaciones con el chatbot.
Asegúrate de Proteger tus Datos en el Bing con ChatGPT
Resulta que Microsoft podría guardar tus conversaciones con el chatbot. Esto significa que lo que dices podría quedar almacenado en sus sistemas. La empresa dice que lo hace para asegurarse de que la inteligencia artificial se use correctamente, pero algunas personas piensan que es un poco intrusivo.
La última actualización de las reglas, que ocurrió en julio de 2023, dice que no puedes usar el chatbot para obtener información secreta o para entrenar a otras inteligencias artificiales. Microsoft quiere evitar que la gente use el chatbot de maneras malas o peligrosas.
Esto pasó porque algunas personas encontraron formas de hacer que el chatbot revelara información confidencial. Microsoft tuvo que arreglar eso para mantener a salvo la información de todos.
Otras empresas como Twitter o Reddit también están tomando medidas para proteger su tecnología. Quieren asegurarse de que nadie use su inteligencia artificial de manera incorrecta o peligrosa.
Microsoft dice que guardará tus conversaciones por un tiempo, pero no sabemos exactamente cuánto. Podría ser alrededor de 30 días. Si usas la versión empresarial de Bing con ChatGPT, tus conversaciones no serán guardadas.
Así que si quieres mantener tus conversaciones privadas, ¡asegúrate de borrarlas o usa la versión empresarial! Estas nuevas reglas entrarán en vigor en septiembre de 2023, así que aún tienes tiempo para proteger tus datos.
Recuerda, es importante cuidar tus conversaciones en línea y saber cómo tus datos son usados. ¡Siempre mantente seguro!