1. Declaración de principios

La Inteligencia Artificial constituye una tecnología de impacto estructural, no una herramienta neutra ni un recurso meramente operativo.
Su diseño, implementación y uso implican decisiones técnicas, organizativas y humanas que afectan a personas, procesos, datos y resultados de negocio.

Este marco define los principios, criterios y límites que rigen el uso de sistemas de Inteligencia Artificial en los proyectos, formaciones y soluciones desarrolladas, con un enfoque profesional, responsable y verificable.

No se trata de una declaración ética genérica, sino de un compromiso operativo.

2. Enfoque profesional de la IA

La IA se concibe como:

  • Un sistema de apoyo a la decisión, no un sustituto del criterio humano.
  • Una tecnología sujeta a gobernanza, no a improvisación.
  • Un recurso estratégico, no un elemento de marketing ni de espectáculo tecnológico.
  • Se rechaza expresamente el uso de la IA como:
  • Generador automático de decisiones finales.
  • Sustituto de la responsabilidad profesional.
  • Herramienta para simular competencia, experiencia o autoría inexistentes.

3. Principios rectores

3.1 Supervisión humana efectiva

Todo sistema de IA debe estar bajo control humano, con capacidad real de:

  • Intervenir.
  • Validar.
  • Corregir.
  • Desactivar.

No se implementan sistemas que operen de forma autónoma en decisiones críticas sin supervisión explícita.

3.2 Finalidad legítima y proporcional

La IA sólo se emplea cuando:

  • Existe una finalidad clara y legítima.
  • Su uso aporta un valor real y medible.
  • El nivel de automatización es proporcional al riesgo.

3.3 Responsabilidad y trazabilidad

Toda solución basada en IA debe permitir:

  • Identificar quién diseña, quién valida y quién decide.
  • Documentar los criterios de uso.
  • Trazar el impacto de la IA en el resultado final.

4. Uso de datos y contenidos

4.1 Datos de entrada

No se introducen en sistemas de IA datos confidenciales, sensibles o protegidos sin análisis previo.

Se respetan los principios de minimización, pertinencia y finalidad.

El cliente conserva la responsabilidad sobre los datos que facilita.

4.2 Contenidos generados

Los contenidos generados por IA no se presentan como producción humana exclusiva cuando no lo son.

Todo contenido relevante pasa por revisión, edición y validación profesional.

La IA no se utiliza para falsear autoría, experiencia o certificaciones.

5. Formación y uso profesional

En entornos formativos y corporativos:

  • La IA se enseña como herramienta de apoyo, no como atajo.
  • Se evita el aprendizaje basado en “prompts milagro” o automatismos acríticos.
  • Se prioriza la comprensión del sistema, sus límites y riesgos.

El objetivo no es “usar IA”, sino saber cuándo, cómo y por qué usarla.

6. Cumplimiento normativo

El uso de la IA se alinea con:

  • Legislación europea y nacional vigente.
  • Principios de protección de datos y privacidad.
  • Marcos regulatorios emergentes como el Reglamento Europeo de Inteligencia Artificial.
  • No se implementan soluciones que:
  • Busquen deliberadamente eludir la normativa.
  • Trasladen riesgos legales o éticos al cliente sin advertencia expresa.
  • Presenten la IA como “neutral” o “automáticamente fiable”.

7. Límites explícitos

No se desarrollan ni se apoyan proyectos de IA destinados a:

  • Manipulación informativa o persuasión encubierta.
  • Vigilancia injustificada o profiling abusivo.
  • Sustitución opaca de funciones humanas críticas.
  • Simulación de expertos, identidades o capacidades inexistentes.
  • Cuando un encargo entra en conflicto con estos principios, se rechaza.

8. Revisión y actualización

Este marco ético es un documento vivo, sujeto a:

  • Revisión técnica.
  • Cambios normativos.
  • Evolución tecnológica real, no tendencias de mercado.

La ética en IA no es una postura ideológica, sino una disciplina profesional.

9. Posicionamiento final

La Inteligencia Artificial no convierte a nadie en experto.
El criterio, la experiencia y la responsabilidad siguen siendo humanas.

Este enfoque no busca maximizar el uso de la IA, sino garantizar su uso correcto.