ChatGPT

ChatGPT

Un número creciente de empresas está optando por prohibir el uso de herramientas de inteligencia artificial (IA) como Bard, Bing Chat y Chat GPT en el entorno de la oficina debido a serias preocupaciones sobre la privacidad de los datos. Estos chatbots han sido diseñados para aprender de las conversaciones de los usuarios, lo que implica que las interacciones pueden ser recopiladas, almacenadas e incluso revisadas manualmente para entrenar nuevos modelos de IA.

Este escenario plantea inquietudes considerables para las empresas que manejan información confidencial. Por ejemplo, si un empleado solicita a una de estas herramientas que revise un fragmento de código o un documento confidencial en busca de errores, existe el riesgo de que el contenido pueda filtrarse inadvertidamente.

Como resultado de estas preocupaciones, empresas como Samsung, Bank of America y Citigroup han tomado la decisión de prohibir el uso de Chat GPT y herramientas similares en sus operaciones diarias.

Respuesta de Microsoft: Bing Chat Enterprise

MS Bing Chat Enterprise

MS Bing Chat Enterprise

Microsoft ha respondido a estas preocupaciones con el lanzamiento de Bing Chat Enterprise, una alternativa dirigida específicamente a usuarios empresariales que buscan resguardar sus datos comerciales y personales. Bing Chat Enterprise garantiza que los datos enviados a sus servidores estarán protegidos y no se filtrarán fuera de la organización. Se promete que Microsoft no accederá visualmente a la información ni la utilizará para entrenar modelos de IA. Sin embargo, cabe mencionar que este servicio requerirá un pago, siguiendo la lógica de «si no pagas por el producto, eres el producto». Bing Chat Enterprise estará inicialmente disponible en suscripciones de Microsoft 365, con planes para ofrecer acceso mediante una suscripción independiente en el futuro.

Otras preocupaciones asociadas con las IA generativas

Además de las inquietudes sobre privacidad, existen otros problemas relacionados con el uso de IA generativa como Chat GPT en entornos empresariales:

Respuestas inexactas: Algunas herramientas de IA generativa pueden generar respuestas inexactas, lo que representa un riesgo para tareas críticas como la revisión de códigos de software. Expertos señalan que estas herramientas pueden alucinar y producir información que no se ajusta a los hechos.

Riesgo de respuestas sesgadas: Para las empresas de renombre, evitar cualquier percepción de sesgo o discriminación es crucial para proteger su imagen de marca. Desafortunadamente, herramientas como Chat GPT pueden producir resultados sesgados debido a la metodología de entrenamiento basada en contenido escrito por seres humanos, algunos de los cuales pueden ser sesgados o discriminatorios.

A pesar de los esfuerzos de OpenAI para abordar las respuestas inadecuadas y sesgadas, los críticos señalan que lanzaron Chat GPT apresuradamente sin resolver completamente estos problemas fundamentales, posiblemente debido a consideraciones comerciales. Esto destaca la necesidad de un enfoque más riguroso para garantizar la fiabilidad y solidez de estas herramientas de IA en el futuro.