Skip to main content
16 Noviembre, 2025
Síganos en Redes

Política uso responsable de inteligencia artificial (IA) – ChatGPT / GPT

16 Noviembre, 2025

1. Objetivo

Establecer lineamientos para el uso responsable, seguro, ético y efectivo de herramientas de Inteligencia Artificial —incluido ChatGPT— por parte de directivos, docentes y personal administrativo de la Academia, garantizando calidad educativa, cumplimiento normativo, protección de datos y soporte al Sistema de Gestión de Calidad (SGC).


2. Alcance

Aplica a todas las actividades en las que directivos y docentes utilicen IA para apoyar:

  • Gestión académica y gerencial.

  • Diseño y actualización de programas.

  • Preparación de clases y material didáctico.

  • Procesos administrativos, comunicación y análisis de datos.

  • Desarrollo de cursos, evaluaciones, informes y documentos del SGC.


3. Principios de Uso Responsable

3.1. Transparencia

La IA es un apoyo, no reemplaza el juicio profesional del directivo o docente.
Toda producción final debe ser revisada y validada por la persona responsable antes de su publicación o uso académico.

3.2. Precisión y verificación

La información generada por IA debe contrastarse con:

  • Normas DIMAR, STCW/78.E.2010, OMI.

  • Procedimientos institucionales (PR-GGE-01, PC-PSE-01, PR-GAF-01).

  • Fichas técnicas de los cursos.

  • Fuentes oficiales o bases documentales de la Academia.

3.3. Uso ético

Se prohíbe usar la IA para:

  • Engañar a alumnos o reemplazar evaluaciones auténticas.

  • Suplantar roles críticos fiduciarios (instructor, evaluador, auditor).

  • Generar información falsa o sin sustento normativo.

3.4. Respeto por la privacidad y protección de datos

No debe ingresarse en la IA información sensible de:

  • Alumnos, docentes o clientes.

  • Certificaciones, notas, documentos oficiales, números de identificación.

  • Datos de la autoridad marítima o del aplicativo DIMAR.

3.5. Cumplimiento legal

El uso de IA debe ajustarse a:

  • Normativa DIMAR.

  • Leyes de protección de datos personales.

  • Normas de propiedad intelectual.

  • Lineamientos del SGC.


4. Usos Permitidos

Para Directivos

  • Redacción preliminar de políticas, procedimientos, instructivos y comunicaciones.

  • Análisis de datos, indicadores, riesgos y oportunidades.

  • Apoyo en informes de auditoría interna o del PHVA.

  • Comparación preliminar de contenidos académicos con estándares OMI o fichas técnicas.

  • Generación de campañas de comunicación institucional.

Para Docentes

  • Generación de material didáctico, resúmenes, actividades, casos prácticos y guías.

  • Propuestas de evaluaciones, foros, talleres o cuestionarios (previa revisión).

  • Apoyo en la creación de materiales interactivos para Moodle.

  • Explicaciones adaptadas al nivel del estudiante.


5. Usos Restringidos o Prohibidos

5.1. Prohibido

  • Ingresar datos personales o confidenciales de alumnos o terceros.

  • Pedir a la IA la elaboración automática de notas, evaluaciones finales o decisiones sobre aprobación.

  • Introducir documentos completos sujetos a derechos de autor sin autorización.

  • Generar certificados, registros, informes oficiales o comunicaciones dirigidas a DIMAR sin validación humana.

  • Usar IA durante evaluaciones de competencia (fraude académico).

5.2. Restringido

Requiere autorización del Director Académico:

  • Generación de contenido académico para cursos OMI que deba alinearse con la última versión de modelos OMI o STCW.

  • Apoyo en revisiones de riesgo del proceso PR-PSE-01 o auditorías.


6. Riesgos Asociados y Controles

Riesgo Descripción Controles propuestos
Inexactitud técnica La IA puede generar contenido erróneo o no alineado con normas DIMAR/OMI. Revisión humana obligatoria. Validación con documentos oficiales.
Fuga de información Ingreso de datos personales o evidencias académicas en herramientas de IA. Prohibición expresa. Capacitación anual sobre protección de datos.
Dependencia excesiva Sustitución del criterio profesional del docente o directivo. Uso como herramienta complementaria; revisión académica obligatoria.
Desalineación con el SGC Documentos creados sin cumplir con codificación, formato o trazabilidad. Validación del Coordinador de Calidad antes de publicar.
Desactualización normativa La IA puede desconocer cambios recientes de DIMAR o STCW. Confirmación con fuentes oficiales antes de usar en procesos críticos.
Impacto pedagógico negativo Uso para generar evaluaciones o respuestas que faciliten malas prácticas estudiantiles. Prohibición de uso para resolver exámenes o tareas de alumnos.

7. Responsabilidades

Directivos

  • Implementar la política.

  • Supervisar el uso responsable.

  • Asegurar capacitación periódica.

  • Validar documentos estratégicos generados con IA.

Docentes

  • Usar la IA como apoyo y no como sustituto.

  • Revisar y validar todo contenido generado.

  • Conservar la integridad académica y la calidad de la enseñanza.

Dirección Académica

  • Supervisar la correcta integración de IA en el proceso PR-PSE-01.

  • Verificar que los programas académicos no sean alterados sin análisis previo.

  • Mantener coherencia con la autoridad marítima y normas de formación.


8. Declaración Final

La Academia Marítima de Seguridad Integral ASI Ltda. promueve el uso responsable de la Inteligencia Artificial como herramienta de apoyo académico, administrativo y gerencial, garantizando siempre el cumplimiento normativo, la ética profesional, la calidad del servicio educativo y la protección de los datos personales y la propiedad intelectual.


Versión 1.

Autorizado. Director General. Jesús Alberto Gutiérrez Reyes.

Bogotá D.C. 17.oct.2025.

Fundador, Director, Docente