En nuestro día a día muchas empresas, sobre todo pymes, nos preguntan cómo deben de integrar la IA en su organización. En otras ocasiones, nos relatan cómo, tras iniciar la integración de IA con la consiguiente inversión, no les ha servido para mejorar u optimizar sus procesos o servicios. Y es que no basta con integrar ChatGPT o Copilot en nuestras tareas y procesos. Hay que utilizar las herramientas de IA que realmente necesitemos y nos sirvan para mejorar en aquellos procesos que nos hayamos propuesto.
Integrar las herramientas de una manera errática o sin estrategia definida tendrá efectos negativos, entre los cuales, aumentar la carga de trabajo de los equipos y su frustración y, peor aún, perder a medio y largo plazo ventaja competitiva en favor de otras empresas competidoras de nuestro sector. Hay algunos pasos a seguir, imprescindibles, para llevar a cabo este proyecto de transformación digital con IA en la empresa de manera exitosa.
Podrían enunciarse así:
- Escoger las tareas de tu equipo a optimizar con IA y plantear un piloto con alguna de ellas.
- Analizar y seleccionar cuidadosamente las herramientas que necesita tu empresa para esas tareas;
- Ofrecer formación al equipo e identifica champions que puedan ayudar e inspirar a los demás;
- Analizar en función de la finalidad, si tienes que cumplir requisitos regulatorios del Reglamento IA, RGPD y otros.
Escoger las tareas y plantear un piloto
En primer lugar analizar las tareas y los procesos de los equipos para ver cuáles podrían ser objeto del primer piloto o prueba con IA. Podrían ser tanto tareas repetitivas de poco valor añadido y que consumen mucho tiempo como otras tareas de más valor añadido que nos permitan dar un salto cualitativo en los bienes o servicios que ofrecemos. En el primero de los escenarios estaríamos ahorrando tiempos y costes significativos. En el segundo, estaríamos además ganando ventaja competitiva en nuestro sector. Sería deseable realizar el piloto en aquellas tareas o departamentos que supongan un caso de uso interesante por su posible escalabilidad a otros departamentos o equipos.
Analizar las herramientas que necesita tu empresa
Se trata de ver cuáles de las herramientas disponibles en el mercado necesitamos en esta fase. Las más útiles pueden ser las que realizan múltiples tareas como ChatGPT, pero también hay muchas otras, Perplexity, Claude, Anthropic… Casi cada día se publican nuevas herramientas. También existen ya unas cuantas especializadas por sector de actividad (legal, marketing, etc.). Es aconsejable no suscribirse a muchas a la vez; unas pocas escogidas y entre ellas una de las más versátiles puede ser una buena opción para empezar.
Formar al equipo
Hay que invertir tiempo y recursos en formar a los equipos. Según la ley, además, hay que capacitar a los empleados en el cumplimiento tanto del Reglamento de IA como en el uso ético y aceptable de la IA. Por otro lado, deberemos de comprobar o realizar auditorías internas en relación con la utilidad de la misma. Además, hay que mantener esa formación actualizada en todo momento, pues la ley evolucionará y también habrá directrices sectoriales y mecanismos de aplicación de la norma a los que debamos de estar atentos. En estos casos, posiblemente deberemos acudir a recursos externos y profesionales en esta materia. Es muy recomendable designar un responsable de cumplimiento de IA o un equipo de gobernanza de IA, a poder ser, multifuncional y multidisciplinar.
Analizar finalidades y cumplir con el Reglamento IA
Para que todo lo anterior no resulte en vano o fallido, hay que tener en cuenta desde el principio el cumplimiento normativo. Idealmente, enlazaremos este análisis con el programa de Compliance de la empresa. En todo caso, en primer lugar determinaremos en qué categoría de riesgo se hallaría la finalidad para la que adoptamos IA. El Reglamento IA establece algunas categorías de sistemas de IA de riesgo inaceptable y que quedan, por tanto, prohibidas (puntuación social, identificación biométrica en tiempo real en determinadas circunstancias, IAs que aprovechen vulnerabilidades o que se utilizan para manipular conductas, etc.).
En segundo lugar, hay que ver si la finalidad de uso es de alto riesgo: por ejemplo, para contratar, evaluar, despedir empleados; relacionadas con infraestructuras críticas; identificación biométrica remota; categorización biométrica en función de atributos; reconocimiento de emociones; educación y formación profesional; acceso y disfrute de servicios y prestaciones públicos esenciales. En estos casos, habremos de cumplir una serie de requisitos y obligaciones estrictas: gestión de riesgos, registros de logs, gestión de calidad, instrucciones de uso y documentación técnica, intervención humana, evaluación de impacto en derechos fundamentales, entre otros.
Por el contrario, si se trata del uso de un chatbot, o la creación de contenidos que puedan ser considerados deepfakes, etc., que son casos de riesgo limitado, estaremos sometidos a obligaciones de transparencia. Finalmente, los casos de riesgo mínimo están sometidos a pocas obligaciones.