La inteligencia artificial (IA) está transformando las decisiones de inversión globales, pero muchos líderes y dirigentes empresariales no son conscientes aún de los riesgos cibernéticos que conlleva su adopción ni de las estrategias para mitigarlos. Si bien la IA es una herramienta clave para fomentar la innovación, enfocarse solo en sus oportunidades sin considerar los riesgos deja a las organizaciones vulnerables.
Por ello, es esencial integrar la seguridad desde el diseño inicial y contemplar los costos asociados. La IA amplía la superficie de ataque de una organización, introduciendo riesgos como el envenenamiento o contaminación de datos y la filtración de información a gran escala. Además, su creciente autonomía puede generar nuevos riesgos, lo que requiere controles de seguridad más avanzados y una supervisión humana mayor que en el software tradicional.
La falta de estandarización y las diferencias regulatorias entre diversas jurisdicciones complican la implementación de medidas de seguridad, especialmente para organizaciones que operan en múltiples regiones. Por ello, los expertos y líderes de ciberseguridad deben comunicar eficazmente los riesgos a los directivos, vinculándolos con las prioridades empresariales.
Aprovechar los beneficios de la IA sin comprometer la seguridad es posible con un enfoque integral y una clara comunicación de riesgos, lo que permitirá a las organizaciones adoptar esta tecnología de manera segura y efectiva. El Foro Económico Mundial, junto con el Centro de Ciberseguridad de la Universidad de Oxford, lidera la iniciativa “IA y Ciberseguridad: Equilibrando Riesgos y Recompensas” para guiar a líderes globales en la adopción responsable de la IA.
Además, se están desarrollando herramientas para combatir la desinformación, como DebunkBot, una inteligencia artificial basada en ChatGPT-4 Turbo, entrenada por científicos del Instituto Tecnológico de Massachusetts (MIT).