Metodología29 marzo 20267 min de lectura

La IA no decide por tu empresa. Elige quién lo hace

Seis principios para gobernar la orquestación de capacidades de IA en entornos empresariales. No son estándares que adopté porque el mercado los pide. Son los que aplico porque no concibo trabajar de otra forma.

La IA no decide por tu empresa. Elige quién lo hace

Hay una diferencia que Joseph Weizenbaum formuló en 1976 y que la mayoría de las empresas ignora cuando despliegan IA: decidir no es lo mismo que elegir.

Fuente: McKinsey & Company — The State of AI (2025)

Decidir es un cálculo. Se puede reducir a un algoritmo. Las máquinas deciden mejor que los humanos — más rápido, sin fatiga, sin sesgo emocional. Pero elegir, decía Weizenbaum, es una actividad moral. Implica juicio, valores, compasión y responsabilidad. Su advertencia, publicada en Computer Power and Human Reason (W. H. Freeman, 1976), sigue siendo la más precisa que conozco sobre los límites de la IA: reducir problemas que requieren elección a meros problemas técnicos que solo requieren una decisión es un acto de profunda deshumanización.

Estos seis principios no nacieron en un curso ni los adopté porque el mercado los pide. Su origen es la combinación de dos cosas distintas: 23 años operando en entornos donde las consecuencias de una decisión equivocada no eran un KPI — eran personas, presupuestos y reputaciones institucionales, y el programa de Inteligencia Artificial Generativa aplicada a la transformación empresarial del MIT, donde ese criterio acumulado se encontró con esta tecnología de forma estructurada. La ética no fue un tema nuevo en ese programa. Fue el reconocimiento de que los principios que ya gobernaban mis decisiones de negocio necesitaban formularse explícitamente para un contexto donde las consecuencias son más rápidas, más opacas y más difíciles de revertir.

Los publico porque creo que un Arquitecto de Soluciones que no es capaz de decir públicamente bajo qué principios trabaja no merece la confianza que pide.

LOS SEIS PRINCIPIOS

1. El Principio del Mayor Bien

Todo despliegue de capacidad instalada debe generar un impacto positivo para la empresa, los clientes y la sociedad. No son tres criterios separados — son tres dimensiones del mismo. Una solución que mejora el margen a costa del cliente no pasa este filtro. Una que beneficia al cliente pero destruye la operación tampoco.

Este principio es el primero porque es el más fácil de omitir bajo presión comercial. Si un proyecto no puede justificar su impacto en las tres dimensiones, no lo construiré.

2. Transparencia y Divulgación

Es obligatorio declarar cuando un producto, informe o comunicación ha sido generado total o parcialmente mediante IA Generativa. No es una cortesía — es un estándar de integridad.

El receptor de un análisis tiene derecho a saber qué parte del criterio es humano y qué parte es cálculo automatizado. Ocultar ese origen en una propuesta comercial o un reporte ejecutivo no es solo un riesgo legal. Es una falta de honestidad. Y la honestidad no es negociable para mí, independientemente de lo que el cliente preferiría escuchar.

Este artículo fue producido con Eureka, el sistema de IA que construí como parte de mi propia capacidad instalada. Lo declaro porque es lo que este principio exige — y porque demuestra algo más: no asesoro sobre IA desde la teoría. Opero con ella todos los días, con infraestructura propia, bajo los mismos criterios que le pediré a tu empresa que adopte.

3. Responsabilidad Humana Última

El usuario es el único responsable de cualquier resultado generado por IA Generativa, incluidos sesgos y alucinaciones. Bajo ninguna circunstancia se podrá atribuir un error a la tecnología.

Este principio tiene un nombre técnico para el riesgo que mitiga: el Efecto Eliza. Weizenbaum lo documentó en los años 60 con su programa ELIZA — un chatbot rudimentario al que los usuarios comenzaron a atribuir comprensión real, empatía, incluso criterio. El efecto persiste hoy con herramientas mucho más sofisticadas. Cuando un equipo deja de verificar el output de un modelo porque "la IA lo dijo", el Efecto Eliza ya tomó el control.

La IA no toma decisiones de negocio — amplifica el criterio de quien las toma.

Tres preguntas antes de incorporar cualquier capacidad de IA en una tarea empresarial Adaptado de Aleksandr Tiulkanov, "Is it safe to use ChatGPT for your task?" (enero 2023) — extendido al uso de IA en general.

  • ¿Importa que el resultado sea verdadero? Si no importa, el uso es seguro.
  • ¿Tienes experiencia para verificar que el resultado es preciso? Si sí, el uso es seguro.
  • ¿Estás dispuesto a asumir responsabilidad legal y moral por las imprecisiones? Si sí, el uso es posible — con verificación exhaustiva de cada dato. Si no, el uso no es seguro.

El árbol no es restrictivo — es clarificador. La mayoría de los usos empresariales son seguros. El problema es cuando nadie en la organización se hace estas preguntas. Yo me las hago antes de cada proyecto. Espero lo mismo de los equipos con los que trabajaré.

4. Seguridad y Orquestación en Canales Auditados

Solo se permite la orquestación de capacidades de IA que hayan sido auditadas y aprobadas por las áreas de tecnología y cumplimiento. La orquestación de capacidades no autorizadas — lo que en la industria se conoce como Shadow AI — representa un riesgo crítico de seguridad operacional.

Una línea de producción no incorpora maquinaria sin pasar por ingeniería y calidad — es el equivalente a que un operario introduzca maquinaria no certificada en la planta sin avisar a nadie. No incorporaré capacidades de IA en la operación de un cliente sin ese mismo nivel de validación previa, sin importar cuánta presión haya por avanzar rápido.

5. Propiedad Intelectual y Derechos de Autor

Dos reglas no negociables: primero, está prohibido introducir información confidencial o secretos industriales en herramientas de IA de acceso público. Segundo, el usuario debe verificar que el resultado final no infrinja derechos de autor de terceros antes de su distribución.

El primer punto es el más crítico en entornos industriales. Una instrucción operativa que incluya fórmulas, especificaciones técnicas o estrategias comerciales enviada a un modelo público es información que sale del perímetro de la empresa. Esto puede invalidar la protección de secretos industriales y la futura patentabilidad de procesos. No hay cláusula contractual que la recupere una vez enviada. Esto incluye una garantía operativa concreta: la información de cada cliente no entrenará modelos públicos ni saldrá de los canales auditados bajo los que opera nuestro trabajo. Trataré esa información con el mismo cuidado con el que él la trataría. Eso no es un protocolo — es respeto.

6. Privacidad y Consentimiento

No se cargarán datos personales en sistemas de IA sin evaluación de impacto previa y consentimiento expreso de los titulares. En México, el cumplimiento de la LFPDPPP — actualizada en marzo de 2025 — no es opcional. En España y Europa, el RGPD establece obligaciones equivalentes con consecuencias más severas.

Pero más allá del marco legal: las personas que aparecen en los datos de una empresa no firmaron para ser insumo de un modelo de lenguaje. Ese detalle importa. Para mí importará aunque no hubiera regulación que lo exigiera.

No automatizar antes de entender, sino entender lo suficiente para que la automatización tenga criterio.

POR QUÉ LOS PUBLICO

Podría haber guardado estos principios como documento interno. Los publico porque creo que la transparencia sobre el criterio propio es parte de la responsabilidad de quien trabaja con tecnología que afecta organizaciones reales.

Weizenbaum tenía razón: el problema no es que las máquinas decidan. El problema es cuando las organizaciones — y los consultores que las asesoran — dejan de elegir.

Cada uno de estos seis principios tiene una consecuencia directa en el margen operativo: una alucinación no declarada cuesta re-trabajo, una herramienta no autorizada expone datos críticos, un dato personal mal gestionado genera litigio. La gobernanza ética no es el opuesto de la eficiencia — es su condición de entrada. Si quieres saber si tu empresa opera bajo estos criterios antes de escalar su capacidad instalada de IA, el Diagnóstico EBITDA First es el primer paso.

Solicita tu Diagnóstico EBITDA First →

Roberto José Rubio Laínez

Arquitecto de Soluciones

Eureka 🔍

Socia Estratégica y Operativa

Ciudad de México