Probablemente, es solo cuestión de tiempo que la propia función de ‘compliance’, como tal, tenga a su frente a un algoritmo, en vez de un ser humano.
El control de los robots, y del uso de la Inteligencia Artificial en general, va a ser —en realidad, ya lo es—, parte esencial de los programas de compliance y objetivo preferente del ojo vigilante de los compliance officer.
En realidad, cuando miramos al futuro, no podemos evitar una cierta aprensión y preguntarnos adónde nos lleva este deslumbrante mundo nuevo. ¿Acabaremos todos sustituidos por robots? En 2019, un estudio de la OCDE sobre el empleo advertía que el 21,7 % de los puestos de trabajo en España acabarían automatizados y el 32 % experimentarían profundas transformaciones. Los jueces o abogados, por poner un ejemplo, ¿pasaremos al desván de la historia, relegados por robots capaces de aplicar el derecho de manera infalible? Reino Unido ha puesto en funcionamiento un algoritmo que resuelve reclamaciones de pequeñas deudas sin intervención humana. Quizá es un comienzo. Otras profesiones también se sienten ante la encrucijada.
Pero mientras averiguamos adónde vamos, es preciso regular y controlar los actos de los robots, determinar su alcance jurídico y las consecuencias de sus errores. Las categorías jurídicas tradicionales hacen agua ante el fenómeno. ¿Cómo tratar legalmente con los robots deep learning, que se auto-educan y toman decisiones al margen de sus creadores? Hace tiempo que se especula con la opción de reconocerles una especie de «personalidad electrónica». ¿Podremos, entonces, encomendarles tareas, esperar que cumplan sus compromisos, hacerles un requerimiento notarial, en definitiva, tratarles como seres auto-responsables?
Comentarios recientes