Inicio / Colaboración / Muchas empresas están prohibiendo ChatGPT. Esta es la razón por. : AlertaCiencia

Muchas empresas están prohibiendo ChatGPT. Esta es la razón por. : AlertaCiencia

ChatGPT está demostrando ser un asistente bastante atractivo en muchas profesiones, pero no está exento de riesgos, y algunas empresas han prohibido el chatbot en el trabajo.

Puede parecer obvio que cargar información relacionada con el trabajo en una plataforma de inteligencia artificial en línea propiedad de otra empresa es una posible violación de la seguridad y la privacidad. Aún así, ChatGPT puede ser una gran ayuda para algunos que sienten la escasez de tiempo.

En particular, los ingenieros de software consideran que ChatGPT es útil para escribir, probar o depurar código, aunque la tecnología es propensa a errores.

Alrededor del 43 por ciento de los empleados usan IA como ChatGPT en el trabajo, en su mayoría sin decirle a su jefe, según una encuesta de alrededor de 12,000 profesionales.

Samsung Electronics recientemente tomó medidas enérgicas contra el uso de IA generativa después de que un ingeniero manifestara la peor pesadilla de una empresa de tecnología al copiar y pegar código fuente confidencial en ChatGPT.

Al igual que muchas empresas, a Samsung le preocupa que todo lo que se cargue en plataformas de IA como ChatGPT de OpenAI o Bard de Google se almacene en los servidores de esas empresas, sin forma de acceder o eliminar la información.

OpenAI puede usar cualquier cosa escrita en sistemas de IA como ChatGPT para mejorar el sistema. El temor es que la información privada o confidencial de la empresa proporcionada a ChatGPT pueda compartirse involuntariamente con otros usuarios.

Y OpenAI todavía está solucionando los problemas de seguridad: cerró temporalmente ChatGPT en marzo para corregir un error en el que los usuarios podían ver los títulos de los historiales de chat de otros usuarios.

Luego, en abril, OpenAI hizo posible que los usuarios desactivaran su historial de chat, lo que, según la compañía, impediría que ChatGPT usara los datos para entrenar su modelo de IA.

Como resultado de varias preocupaciones de seguridad en torno al chatbot, alrededor de la mitad de los líderes de recursos humanos emiten pautas de ChatGPT para el personal, mientras que el 3 por ciento prohibió ChatGPT por completo, según una encuesta realizada por la consultora Gartner.

Sin embargo, algunas empresas han reconocido que el gato de la IA ya está fuera de la bolsa y han desarrollado, o están en proceso de crear, sus propias plataformas de IA como alternativas más seguras al ChatGPT de libre acceso.

Amazon prohibió ChatGPT en enero y ha instado a sus desarrolladores a usar su IA interna llamada CodeWhisperer si quieren consejos de codificación o accesos directos.

En mayo, Apple restringió el uso de ChatGPT para algunos empleados para evitar la exposición de información confidencial. Apple está desarrollando su propia plataforma de IA en competencia con ChatGPT, respaldada por una inversión multimillonaria de Microsoft.

El Commonwealth Bank of Australia restringió el uso de ChatGPT en junio y ordenó al personal técnico que usara una herramienta similar llamada CommBank Gen.ai Studio, que se desarrolló en asociación con la empresa de tecnología de Silicon Valley H2O.ai.

Otros bancos, incluidos Bank of America, Citigroup, Deutsche Bank, Goldman Sachs, Wells Fargo & Co y JP Morgan, emitieron prohibiciones absolutas de ChatGPT.

La firma de contabilidad PwC ha alentado al personal a jugar con ChatGPT, pero les advirtió que no usen el programa para el trabajo del cliente.

«Nuestras políticas no permiten que nuestra gente use ChatGPT para el uso del cliente a la espera de los estándares de calidad que aplicamos a todas las innovaciones tecnológicas para garantizar las salvaguardas», dijo la directora de información digital de PwC, Jacqui Visch. Revisión financiera.

Alrededor del 15 por ciento de los bufetes de abogados han emitido advertencias sobre ChatGPT, según una encuesta de más de 400 profesionales legales de los EE. UU., el Reino Unido y Canadá. Mishcon de Reya, un bufete de abogados con sede en el Reino Unido con alrededor de 600 abogados, prohibió el uso de la plataforma de IA debido a los riesgos para los datos confidenciales.

En mayo, se le dijo al personal de cinco hospitales en Australia Occidental que dejara de usar ChatGPT después de que algunos usaran la plataforma para escribir notas médicas privadas.

«De manera crucial, en esta etapa, no hay garantía de confidencialidad del paciente cuando se usa la tecnología de bots de IA, como ChatGPT, ni comprendemos completamente los riesgos de seguridad», dijo Paul Forden, quien dirige el Servicio de Salud Metropolitano del Sur de Perth.

«Por esta razón, el uso de la tecnología de inteligencia artificial, incluido ChatGPT, para actividades relacionadas con el trabajo que incluya cualquier paciente o información de servicios de salud potencialmente confidencial debe cesar de inmediato».

Las empresas que adoptan abiertamente ChatGPT lo ven como una forma de ahorrar en costos de generación de contenido. The Coca-Cola Company planea usar ChatGPT y el generador de imágenes de IA DALL·E para la marca y el contenido. En enero, BuzzFeed anunció una asociación para crear cuestionarios y otro contenido para Meta utilizando la API disponible públicamente de OpenAI.

El sitio web de blogs Medium ha «acogido con beneplácito el uso responsable de la tecnología de asistencia de IA», pero requiere que los autores divulguen su uso. CNET había experimentado silenciosamente con historias escritas por IA, pero anunció una pausa en esta operación en enero.

Sin duda, la IA generativa eventualmente tendrá un lugar en la oficina e incluso puede reemplazar a parte del personal. Pero, por ahora, muchas empresas ven más riesgos que beneficios.

Puede interesarte

Posibles señales bajistas con información privilegiada de Carlisle Companies vendiendo acciones

Muchos Compañías de Carlisle incorporadas (NYSE:CSL) los expertos se deshicieron de sus acciones durante el …