La inteligencia artificial como herramienta estratégica, no como cerebro político

ROBERTO PLASENCIA

Durante los últimos años y con la imparable evolución de las tecnologías, la inteligencia artificial (IA) se ha ido instalando en la conversación política como una promesa casi redentora: “campañas más eficientes”, “mensajes más precisos”, decisiones basadas en datos y elecciones “optimizadas”. En ese entusiasmo también se ha venido consolidando un error esencial y de fondo: confundir una herramienta avanzada con un estratega.

Diversos análisis coinciden en que la IA ha transformado la forma en que se recopila información, se monitorea la opinión pública y se automatizan procesos comunicativos, pero no ha transformado, ni puede hacerlo, la naturaleza de la estrategia política. Como advirtió Isaac Hernández en su análisis sobre marketing político e IA, la tecnología mejora la ejecución, pero no reemplaza la lectura política ni la toma de decisiones de alto nivel; estas siguen siendo profundamente humanas (Hernández, s.f.). En ese sentido, es menester señalar que la IA no piensa políticamente. No entiende poder, legitimidad, conflicto ni contexto. Tan solo procesa datos, identifica patrones y sugiere escenarios, pero no define objetivos ni evalúa consecuencias políticas de una decisión. Cuando una campaña o un gobierno coloca a la IA en el centro de la toma de decisiones estratégicas, lo que realmente hace no es innovar: al contrario, renuncia al criterio político.

Este fenómeno ha sido descrito recientemente como “prompstitución”: la tendencia a delegar el pensamiento estratégico en sistemas de IA, renunciando gradualmente al ejercicio crítico propio (Seidor, 2024). En política, delegar el juicio no solo es un error operativo; es un riesgo democrático. Para ser más específicos, la estrategia política no es un problema matemático ni un ejercicio de optimización algorítmica. Es un proceso de interpretación social, lectura del conflicto y toma de decisiones bajo incertidumbre. Admitamos que la IA puede decirnos qué temas crecen, qué mensajes generan reacción o qué segmentos responden mejor; no puede, en cambio, decirnos qué significa eso políticamente ni qué decisiones deben tomarse a pesar de los datos.

Como subraya Harvard Business Review, trabajar con IA exige actuar como tomadores de decisiones, no como simples personas usuarias de herramientas. El error aparece cuando las y los líderes asumen que el sistema “decide mejor” solo porque procesa más información, olvidando que decidir implica valores, riesgos y responsabilidad, no solo predicciones (HBR, 2025).

El riesgo aparece cuando los equipos confunden optimizar con estrategia: ajustar mensajes en tiempo real, maximizar engagement o anticipar reacciones no equivale a construir una narrativa política ni a sostener un proyecto. La política no se reduce a performance comunicativa. Usada correctamente, la IA es una herramienta valiosa:

  • Monitorear la conversación pública.
  • Detectar tendencias emergentes.
  • Analizar grandes volúmenes de información.
  • Ayudar a ordenar escenarios posibles.

Ahora bien, existen límites estructurales que no pueden ignorarse:

  • No establece prioridades públicas.
  • No distingue entre ruido y demanda social legítima.
  • No comprende símbolos, historia ni memoria política.
  • No asume responsabilidad por las decisiones tomadas.

Tal como señala Innguma en su análisis sobre vigilancia estratégica, el verdadero valor no está en la IA, sino en el criterio humano que interpreta sus resultados. Sin esa mediación, la información se vuelve abundante pero estratégicamente estéril (Innguma, s.f.). Aquí se traza la línea crítica: la IA puede ayudar, informar e incluso implementar procesos estratégicos, pero no puede ser la estrategia.

Cada vez es más común observar campañas y, posteriormente, gobiernos dirigidos desde pantallas de métricas. Lo que sube se amplifica. Lo que baja se descarta. Esta lógica algorítmica genera campañas reactivas, sin visión de largo plazo, y gobiernos que comunican lo que conviene al algoritmo, no necesariamente lo que es políticamente necesario decir. Adolfo M. Carreño advierte que la IA está siendo presentada como “socio estratégico”, cuando en realidad carece de comprensión contextual y de sentido político. Convertirla en árbitro de decisiones es sustituir deliberación por automatismo (Carreño, LinkedIn). El resultado suele ser una comunicación eficiente, pero vacía; constante, pero frágil. Mucho movimiento, poca dirección. El problema es que la política no siempre coincide con lo que mejor funciona para el algoritmo.

En campaña, una mala lectura estratégica puede costar votos e incluso la elección. En el gobierno, puede costar legitimidad. Automatizar respuestas, usar chatbots o tratar de analizar el sentimiento de la ciudadanía no sustituirá nunca el diálogo político ni la rendición de cuentas. Además, el uso acrítico de la IA abre nuevos riesgos: desinformación automatizada, deepfakes y manipulación del debate público. Microsoft ha reconocido que la defensa de la integridad electoral no pasa solo por tecnología, sino por criterios claros, límites políticos y responsabilidad institucional (Microsoft News, 2024).

La IA no construye confianza. La confianza se construye con decisiones claras, frente a frente con la ciudadanía, con comunicación honesta y coherencia entre discurso y acción. Sin criterio político, la tecnología solo amplifica errores. La inteligencia artificial no es el nuevo consultor ni estratega político. Es una herramienta poderosa, sí, pero subordinada a algo insustituible: la capacidad humana de interpretar la realidad política y asumir responsabilidad por la toma de decisiones. Gobernar, administrar, servir y competir electoralmente con IA no significa gobernar por IA. Confundir esa diferencia no es un error técnico: es abdicar del criterio político, y ese es uno de los costos estratégicos más altos de nuestro tiempo.

Luis Roberto Plasencia Rodríguez es politólogo y administrador público por la UNAM, con un Máster en Comunicación Política Avanzada en Madrid. Con más de 14 años de experiencia, ha destacado como estratega en campañas políticas, asesor electoral, operador territorial y creador de contenido para redes sociales. Además de especialista en administración municipal y derecho electoral, su trayectoria refleja un firme compromiso con el fortalecimiento del quehacer político y el desarrollo de México. (@Robertoplasenci)

Fuentes consultadas:

  1. Hernández, I. La inteligencia artificial en política. Marketing Político.
  2. https://isaachernandez.es/marketing-politico/la-inteligencia-artificial-en-politica-ai/
  3. Carreño, A. M. AI is no longer a tool but a strategic partner? LinkedIn.
  4. https://www.linkedin.com/pulse/ai-longer-tool-strategic-partner-adolfo-m-carre%C3%B1o-nueoe/
  5. Innguma. IA, criterio humano y el verdadero reto de la vigilancia estratégica.
  6. https://www.innguma.com/ia-criterio-humano-reto-vigilancia-estrategica/
  7. Seidor. La prompstitución: el arte de externalizar tu cerebro a la IA.
  8. https://www.seidor.com/es-es/blog/la-prompstitucion-arte-externalizar-tu-cerebro-ia
  9. Harvard Business Review. When working with AI, act like a decision maker, not a tool user (2025).
  10. https://hbr.org/2025/10/when-working-with-ai-act-like-a-decision-maker-not-a-tool-user
  11. Microsoft News. La lucha contra los deepfakes de IA y la integridad electoral.
  12. https://news.microsoft.com/es-xl/la-lucha-contra-los-deepfakes-de-ia-nuestra-participacion-en-las-convenciones-politicas-de-2024/