La inteligencia artificial ya dejó de ser una promesa futura para convertirse en una herramienta cotidiana en empresas, gobiernos y usuarios. Desde automatizar tareas hasta tomar decisiones estratégicas, su impacto crece a un ritmo acelerado.
En ese contexto, el director de tecnología de Check Point, Jonathan Zanger, proyecta que la IA podría aportar cerca de 20 billones de dólares a la economía global para 2030, una cifra que la posiciona como una de las fuerzas económicas más relevantes del siglo. Sin embargo, el especialista advierte que ese crecimiento solo será sostenible si se logra algo clave: construir confianza en los sistemas de IA.
La nueva frontera de riesgo: el lenguaje
Según Zanger, el principal problema ya no está en fallas técnicas o vulnerabilidades clásicas, sino en algo más sutil: la forma en que la IA interpreta el lenguaje humano. Los grandes modelos de lenguaje (LLM), que hoy se usan para analizar mercados, cadenas de suministro o información médica, pueden ser manipulados a través de instrucciones maliciosas ocultas en datos aparentemente normales.
A diferencia de los ciberataques tradicionales, estas amenazas no atacan el código, sino el significado. Es decir, buscan engañar al modelo desde su razonamiento, alterando respuestas, recomendaciones o decisiones sin que el sistema “note” que está siendo comprometido.
La amenaza invisible dentro de las empresas
Cuando un modelo de IA es manipulado, puede comportarse como una amenaza interna silenciosa: filtrar datos sensibles, distorsionar información clave o favorecer intereses externos. Lo más peligroso es que todo ocurre sin alertas evidentes, ya que el sistema sigue funcionando con normalidad, pero de forma desalineada.
Para el especialista, esto implica un cambio profundo en la lógica de la ciberseguridad: ya no se trata solo de proteger datos, sino de proteger el conocimiento que la IA procesa y genera.
Confianza cero y gobernanza de IA
La propuesta central de Zanger es aplicar el principio de “confianza cero” también a la inteligencia artificial: no confiar en nada por defecto y verificar todo de manera constante. Esto incluye monitorear qué datos se usan para entrenar modelos, de dónde provienen y cómo se modifican con el tiempo.
Además, remarca que la gobernanza de la IA debería ser una prioridad estratégica, al mismo nivel que la ciberseguridad o los criterios ESG. Iniciativas como los marcos de riesgo de la OCDE ya reconocen que la manipulación de IA es un problema real y urgente.
El futuro económico depende de la confianza
La conclusión es clara: el enorme potencial económico de la inteligencia artificial solo será posible si se garantiza su integridad. En palabras del especialista, la próxima etapa de la innovación no se definirá por la potencia de los sistemas, sino por la confianza que generen.
En otras palabras, proteger la IA ya no es solo una cuestión técnica, sino una condición básica para que esa proyección de 20 billones de dólares no quede en una promesa imposible de cumplir.
