Microsoft planea crear un ChatGPT de uso privado para empresas que trabajan con datos sensibles

  • El precio del producto podría ser diez veces más caro que el de la versión de pago del chatbot
  • La información de carácter privado no podrá usarse para entrenar al sistema
Candado_ protección datos

Microsoft está planeando el lanzamiento de una versión de ChatGPT especialmente concebida para compañías como bancos, empresas de servicios médicos y otro tipo de organizaciones que trabajen con datos personales de sus clientes sujetos a protección legal. 
El lanzamiento de este chat diseñado para proteger la privacidad podría tener lugar a lo largo de este trimestre, de acuerdo con la noticia sobre esta novedad publicada por The Information.  

Esta versión de ChatGPT estaría alojada en servidores distintos de los que se usan para la versión normal del producto

Esta versión de ChatGPT estaría alojada en servidores específicos separados de aquellos a los que acceden las empresas o personas que trabajan con las versiones de ChatGPT que Microsoft está incorporando en Edge, Windows y otros productos de su gama. 
De ese modo, los datos sensibles no estarían disponibles para entrenar a ChatGPT y, por otro lado, se prevendrían eventuales filtraciones. El nuevo producto, según la información publicada, podría tener un precio diez veces superior al de ChatGPT Plus, la versión de pago del chatbot, que cuesta 20 dólares al mes. 

Acuerdo con OpenAI

Microsoft está autorizado a comercializar productos de OpenAI, empresa propietaria de ChatGPT, en virtud del acuerdo multianual que mantiene con la compañía, en la que, por otra parte, está invirtiendo miles de millones de dólares.

Ambas empresas podrían, de hecho, acabar compitiendo entre sí con versiones de ChatGPT sensibles a la privacidad, pues, según se ha publicado, OpenAI está trabajando en modelos del chatbot en los que la información introducida por empleados y consumidores de una compañía no sería empleada para enriquecer y entrenar el sistema.

Noticias Relacionadas

Estas eventualidades y riesgos de filtración o mal uso de la información son las que, por el momento, han llevado a empresas como Samsung, Verizon JP Morgan Chase, Citigroup y Goldman Sachs a prohibir a sus empleados el uso de sistemas de Inteligencia artificial generativa en los dispositivos que usan en su trabajo.