OpenAI quiere tranquilizar a las empresas. Su famoso chatbot ChatGPT dejó de recordar la información proporcionada por usuarios profesionales para mejorar sus respuestas, así como su capacidad para escribir textos creíbles. «Nuestros clientes realmente no quieren que entrenemos nuestro modelo en sus datos, por lo que hemos cambiado nuestros planes», dijo a CNBC el director ejecutivo de OpenAI, Sam Altman. El cambio se hizo discretamente en marzo. Pero el diablo está en los detalles: esta protección solo se aplica a las empresas que pagan una suscripción para usar la tecnología OpenAI para crear sus propias soluciones de software.
Nada cambia para los usuarios de Internet que usan la versión pública de ChatGPT. Las conversaciones que mantienen con los robots, así como su opinión sobre las respuestas proporcionadas, sirven para seguir mejorando las capacidades del robot. Este punto, que no se explica al usuario de Internet, ha provocado que ChatGPT sea prohibido temporalmente en Italia por el Cnil local.
También provoca sudores fríos en las empresas. Si bien ChatGPT aún no ha «escupido» secretos comerciales proporcionados por empleados reacios al riesgo, cualquier dato ingresado en él, como notas de reuniones confidenciales o código de computadora protegido, ingresa de facto a los sistemas de OpenAI. Esto ha llevado a varios grandes grupos, como Samsung o Goldman Sachs, a bloquear el acceso a la plataforma.