El Instituto Nacional de Calidad (Inacal), indicó hoy que aprobó la Norma Técnica Peruana “NTP-ISO/IEC 42001:2025”, la primera en su tipo enfocada en establecer un sistema de gestión específico para la Inteligencia Artificial (IA).
El organismo adscrito al Ministerio de la Producción, refirió que esta norma constituye una herramienta clave para la gestión estratégica, la mitigación de riesgos y el fortalecimiento de la confianza pública en el uso responsable de tecnologías emergentes.
Su implementación contribuirá a garantizar la calidad, seguridad y transparencia en el desarrollo y uso de sistemas de IA en el país.
Basada en la norma internacional ISO/IEC 42001, esta NTP establece requisitos y directrices claras para planificar, implementar, mantener y mejorar de forma continua un sistema de gestión de Inteligencia Artificial en cualquier organización, sin importar su tamaño o sector económico.
Su objetivo es ofrecer un marco técnico que acompañe la transformación digital hacia un desarrollo tecnológico sostenible, alineado con estándares globales.
La norma es aplicable a organizaciones públicas y privadas que desarrollen, utilicen o provean sistemas de IA, en diversos sectores como salud, transporte, defensa, finanzas, energía, recursos humanos, entre otros.
Resulta especialmente relevante para entidades sujetas a regulaciones, expectativas sociales o compromisos éticos con sus grupos de interés.
De acuerdo con el World Economic Forum, se estima que la IA generará un impacto económico de alrededor de 15.7 billones de dólares en el mundo hacia 2030. En América Latina, más del 75% de las grandes organizaciones ya integran esta tecnología en sus operaciones.
Esta expansión abre nuevas oportunidades, pero también plantea desafíos como la toma de decisiones automatizadas sin explicaciones claras, así como impactos éticos y sociales no previstos, en especial en ámbitos sensibles como salud, justicia, educación, seguridad y finanzas.
¿Qué lineamientos establece la NTP-ISO/IEC 42001:2025?
Proporciona una estructura integral de gestión basada en enfoques de riesgo para el uso responsable de sistemas de IA. Entre sus principales componentes destacan:
1) Gestión del riesgo de IA
Establece procedimientos para identificar, evaluar, mitigar y documentar riesgos asociados a su uso, con foco en la seguridad, equidad, transparencia y protección de datos.
2) Evaluación de impacto
Promueve el análisis de los efectos previsibles y no previstos que los sistemas de IA pueden generar sobre individuos o colectivos, en función del contexto técnico y regulatorio.
3) Objetivos medibles:
Exige a las organizaciones definir metas claras alineadas con su política de IA, incorporando mecanismos de seguimiento y evaluación.
4) Gobernanza y liderazgo
Asigna a la alta dirección la responsabilidad de establecer una política institucional de IA, con compromisos éticos y estratégicos.
5) Integración con otros sistemas de gestión
Permite su articulación con normas ya implementadas, como ISO 9001 (gestión de calidad), ISO 27001 (seguridad de la información) o ISO 31000 (gestión de riesgos), facilitando una gobernanza escalable sin duplicación de esfuerzos.
Más en Andina:
(FIN) NDP / MDV
Publicado: 9/7/2025