ChatGPT y la inteligencia artificial generativa (IA) se han convertido en un tema candente en los últimos tiempos, pero tanto los consumidores como las empresas llevan varios años utilizando la IA. En nuestra vida cotidiana, se utiliza cuando Amazon o Netflix ofrecen recomendaciones, o mediante el uso de asistentes de voz como Siri o Alexa.
La implementación de IA en el entorno empresarial ha revolucionado la forma en que las compañías operan y toman decisiones. Según la firma de consultoría estratégica global Boston Consulting Group (BCG) las inversiones modestas en casos específicos de uso de la IA pueden generar hasta un 6% más de ingresos, y con inversiones crecientes, el impacto de la IA en los ingresos se triplica hasta el 20% o más.
En las compañías de “Retail” la IA ofrece beneficios notables tales como (i) la mejora del servicio al cliente, ya que su uso permite interactuar con el tiempo real fortaleciendo la experiencia y (ii) la rapidez en la toma de toma de decisiones a través de herramientas que usan datos de ventas anteriores, pudiendo predecirse cuántas personas comprarán su producto o cuál debe promocionarse. El sistema de IA puede aprender de los datos pasados y predecir lo que ocurrirá en el futuro basándose en el historial de la empresa.
Además, también se puede conseguir un aumento de la eficiencia operativa a través de la automatización de tareas repetitivas, liberando tiempo para actividades más estratégicas y ahorrando costes. En este campo, los departamentos legales internos pueden optar por la implementación de herramientas como los CLM (Contract Life Management), que emplean la IA para generar modelos de contratos a partir de los parámetros o el aprendizaje, para dar respuestas automáticas o analizar documentos para extraer información relevante.
Sin embargo el uso de IA comporta también una serie de desafíos y existen riesgos de carácter ético y jurídico que las empresas deben empezar a abordar cuanto antes.
A nivel ético, hay que afrontar distintos aspectos. Para mí, el más importante es la falta de transparencia derivada de la ausencia de comprensión, por parte del usuario, de cómo el algoritmo toma sus decisiones y con qué criterio o la fuente de la que se nutre. Esto me lleva directamente a la necesidad de plantearme los correspondientes dilemas éticos y los posibles sesgos en los algoritmos que generan resultados injustos o discriminatorios.
A nivel legal, existen desafíos en distintas materias. Por citar algunos, (i) se ha de valorar el impacto en la seguridad y la privacidad por el almacenamiento y recolección masiva de datos de carácter personal; (ii) en el ámbito de la responsabilidad, a medida que la IA se vuelve más autónoma, surge la cuestión de quién es responsable en caso de error o resultado perjudicial. Establecer la responsabilidad legal civil o penal en caso de accidentes o daños causados por sistemas autónomos de IA es una importante cuestión jurídica que requiere atención: (iii) en el ámbito del Compliance, la IA puede crear retos legales en relación con la regulación y el cumplimiento en sectores como las finanzas, la sanidad y la seguridad.
También en el campo de la Propiedad Intelectual pueden surgir problemas cuando se utilizan algoritmos de IA para crear obras artísticas, música o contenidos digitales, planteando cuestiones sobre quién es el creador y a quién pertenecen los derechos.
En ciberseguridad, la IA también puede ser una herramienta utilizada por actores maliciosos para llevar a cabo ciberataques más sofisticados. Esto crea la necesidad de normas y medidas de seguridad más estrictas.
¿Y qué pueden hacer las empresas para afrontar todos estos retos que trae la IA?.
Creo que deben esforzarse por comprender y explicar cómo los sistemas de IA toman decisiones, previendo auditorías para evaluar la ética y la equidad del algoritmo que se va a usar. Además, deben Implementar medidas robustas de seguridad y anonimización de datos para garantizar la protección de la privacidad de los usuarios y clientes.
Cuestión fundamental es la formación y concienciación a los empleados, empezando por los Comités de Dirección. En este sentido es muy recomendable la elaboración de Guías de Buenas prácticas, políticas y procedimientos. Toda política de uso de IA debe comunicarse a los empleados, preferiblemente a través de programas de formación y educación.
Por último, hay que estar al tanto de la legislación aplicable. Actualmente, sabemos que La ley de inteligencia artificial de la UE recientemente consensuada es pionera en el mundo y que permite o prohíbe el uso de la inteligencia artificial en función del riesgo que genera para las personas y se aplicará en fases y contempla multas de hasta 35 millones de euros.
A modo de conclusión resaltar que la inteligencia artificial es una herramienta poderosa para las empresas, pero su implementación debe ir de la mano con la conciencia de los riesgos asociados. Adoptar medidas de seguridad, transparencia y ética es esencial para maximizar los beneficios de la IA sin comprometer la integridad y la confianza en el proceso.
Autora: Carolina Pastor Tortosa. Secretaria General Alcampo.
Comentarios recientes