Samsung es el mayor fabricante mundial de chips de memoria.
Jakub Porzycki Nurfoto | imágenes falsas
Las empresas grandes y pequeñas están dando forma a políticas que dicen lo que los empleados pueden y no pueden hacer con herramientas de inteligencia artificial generativa como ChatGPT de OpenAI. Algunas organizaciones siguen siendo optimistas mientras que otras están cerrando las cortinas sobre el acceso por el momento, pero una cosa es segura: los riesgos de la IA generativa son múltiples, y depende de los ejecutivos decidir si quieren adelantarse al problema o esperar. mientras que la tecnología se desarrolla rápidamente.
En mayo, Samsung prohibió el uso de herramientas de inteligencia artificial generativa después de que la empresa descubriera que un empleado había subido un código sensible a ChatGPT. Todos los insumos son parte del protocolo de aprendizaje de la tecnología, por lo que el acto es un tema de propiedad intelectual.
La empresa de software de contratos comerciales digitales Ironclad, por otro lado, desarrolló su propia política de uso de IA generativa, a pesar de que su tecnología está potenciada por la propia IA generativa. Eso solo demuestra que incluso las empresas más optimistas están creando algunas barreras para mitigar el riesgo.
En la IA generativa, el riesgo deambula
El CEO y cofundador de Ironclad, Jason Boehmig, era abogado en ejercicio antes de fundar su empresa hace más de ocho años. Esta mentalidad legal persiste, que es una de las razones por las que Ironclad avanzó con la política de IA generativa con tanta rapidez. «Eres responsable de la salida de la IA», dijo Boehmig. Esto incluye las llamadas alucinaciones, que son respuestas objetivamente incorrectas, exageradas o no relacionadas generadas por la herramienta de IA.
La propiedad intelectual y las alucinaciones son solo algunos de los riesgos asociados con la IA generativa. Según Navrina Singh, directora ejecutiva y fundadora de la plataforma de gobierno de IA responsable Credo AI y miembro del Comité Asesor Nacional de IA (NAIAC), los riesgos son lo que ella llama «tecnosociales». Esto significa que afectan cuestiones técnicas como la ciberseguridad y la responsabilidad, pero también sociales como la infracción de derechos de autor e incluso las normas y regulaciones climáticas.
Desarrollar una política empresarial en torno a la IA generativa es parte del proceso de comunicar el riesgo, que va más allá de simplemente conocer o reconocer el riesgo.
Creación de una política empresarial de IA generativa
Singh dice que la importancia de una política empresarial en torno al uso generativo de la IA se reduce a la pregunta: «¿Cómo adopta la IA con confianza mientras gestiona el riesgo, cumple con las normas y es honesto sobre dónde no podrá gestionar el riesgo?».
Vince Lynch, director ejecutivo de la plataforma de toma de decisiones impulsada por IA IV.AI, que actualmente está trabajando con un panel de líderes de IA para desarrollar políticas adoptables para las principales empresas, dice que ahora es el momento de crear estándares, incluso si sabe que lo harán. cambiar. «Es increíblemente importante que las empresas comiencen ahora mismo y desplieguen diferentes estructuras para asegurarse de que sean cautelosas sobre la forma en que la IA puede afectar a su empresa», dijo.
Singh está de acuerdo, pero Boehmig ofrece una visión contraria incluso cuando su empresa toma precauciones basadas en políticas. Boehmig dijo: «Particularmente si estás en una industria altamente regulada, creo que está bien sentarse y decir: ‘Vamos a ver cómo se desarrolla'».
Y se desarrollará. El Informe del año 1 de NAIAC de mayo postula que la IA es una tecnología que requiere la atención del gobierno más temprano que tarde, incluida la adopción de políticas públicas y privadas basadas en el Marco de gestión de riesgos de inteligencia artificial del Instituto Nacional de Estándares y Tecnología. Luego está la Ley de IA en la Unión Europea, que está en proceso de adopción y afectará a las empresas estadounidenses que hacen negocios en muchas naciones en el extranjero.
Mientras tanto, las empresas siguen marcando sus propios límites. En cuanto a la política de Ironclad, los aspectos más destacados incluyen: clasificar datos, prohibir que los datos etiquetados como confidenciales se ingresen en la IA generativa, explicar en detalle la responsabilidad de los empleados por la salida y prohibir la entrada de datos identificables y del cliente.
‘Los obstáculos son cuando las empresas no piensan en la política’.
Si una empresa está considerando crear una política sobre el uso de IA generativa ahora, o simplemente quiere elaborar una estrategia para lo que puede ser un esfuerzo inevitable, los expertos sugieren ciertos pasos a seguir.
Uno de los primeros pasos debe ser la determinación de las partes interesadas. Singh dijo: «Realmente debe ser un diálogo de múltiples partes interesadas», incluidos los equipos de política, inteligencia artificial, riesgo y cumplimiento y legal.
Lynch sugiere preguntar: «¿Cuál es la intención del modelo?» Ya sea que una empresa haya creado un modelo de IA generativo en particular o se refiera a modelos externos, es importante comprender cómo se entrena, cómo funciona y cómo se prueba.
La creación de una política de IA generativa también es una buena oportunidad para que las empresas analicen todas sus políticas tecnológicas, incluida la implementación, la gestión de cambios y el uso a largo plazo. Lynch plantea la pregunta: «¿Con qué frecuencia verifica estas políticas después de implementarlas?»
Dado que los errores y las alucinaciones son comunes en los grandes modelos de lenguaje, la verificación de hechos y la responsabilidad de los empleados son imprescindibles, al igual que la noción de mantener al ser humano informado. Esta es la razón por la que Lynch aconseja: «No use IA para hacer negocios». Esto incluye escribir código o materiales que vayan directamente a los clientes o usuarios. También puede incluir el uso de herramientas de IA generativa como contenido fundamental para el trabajo debido al hecho de que crea un sesgo inherente.
Para algunas empresas, esto puede parecer abrumador, razón por la cual las empresas están comenzando a crear extensiones que ingresan barreras de seguridad. GenAI Guardrails de Credo AI, por ejemplo, inyecta un marco de gobernanza mientras escribe en ChatGPT y marca el cumplimiento como una forma de supervisión automatizada.
Ya sea que la estrategia de una empresa en torno a la política de IA generativa sea prohibir que los empleados la usen (por ahora) como Samsung, colocar barreras y documentar la responsabilidad como Ironclad, o algo intermedio, Lynch dice que es importante tener un camino claro a seguir. «Los obstáculos son cuando las empresas no piensan en la política», dijo, porque ahí es donde entra en escena la gestión de crisis.

.