Política uso responsable de inteligencia artificial (IA) – ChatGPT / GPT
1. Objetivo
Establecer lineamientos para el uso responsable, seguro, ético y efectivo de herramientas de Inteligencia Artificial —incluido ChatGPT— por parte de directivos, docentes y personal administrativo de la Academia, garantizando calidad educativa, cumplimiento normativo, protección de datos y soporte al Sistema de Gestión de Calidad (SGC).
2. Alcance
Aplica a todas las actividades en las que directivos y docentes utilicen IA para apoyar:
-
Gestión académica y gerencial.
-
Diseño y actualización de programas.
-
Preparación de clases y material didáctico.
-
Procesos administrativos, comunicación y análisis de datos.
-
Desarrollo de cursos, evaluaciones, informes y documentos del SGC.
3. Principios de Uso Responsable
3.1. Transparencia
La IA es un apoyo, no reemplaza el juicio profesional del directivo o docente.
Toda producción final debe ser revisada y validada por la persona responsable antes de su publicación o uso académico.
3.2. Precisión y verificación
La información generada por IA debe contrastarse con:
-
Normas DIMAR, STCW/78.E.2010, OMI.
-
Procedimientos institucionales (PR-GGE-01, PC-PSE-01, PR-GAF-01).
-
Fichas técnicas de los cursos.
-
Fuentes oficiales o bases documentales de la Academia.
3.3. Uso ético
Se prohíbe usar la IA para:
-
Engañar a alumnos o reemplazar evaluaciones auténticas.
-
Suplantar roles críticos fiduciarios (instructor, evaluador, auditor).
-
Generar información falsa o sin sustento normativo.
3.4. Respeto por la privacidad y protección de datos
No debe ingresarse en la IA información sensible de:
-
Alumnos, docentes o clientes.
-
Certificaciones, notas, documentos oficiales, números de identificación.
-
Datos de la autoridad marítima o del aplicativo DIMAR.
3.5. Cumplimiento legal
El uso de IA debe ajustarse a:
-
Normativa DIMAR.
-
Leyes de protección de datos personales.
-
Normas de propiedad intelectual.
-
Lineamientos del SGC.
4. Usos Permitidos
Para Directivos
-
Redacción preliminar de políticas, procedimientos, instructivos y comunicaciones.
-
Análisis de datos, indicadores, riesgos y oportunidades.
-
Apoyo en informes de auditoría interna o del PHVA.
-
Comparación preliminar de contenidos académicos con estándares OMI o fichas técnicas.
-
Generación de campañas de comunicación institucional.
Para Docentes
-
Generación de material didáctico, resúmenes, actividades, casos prácticos y guías.
-
Propuestas de evaluaciones, foros, talleres o cuestionarios (previa revisión).
-
Apoyo en la creación de materiales interactivos para Moodle.
-
Explicaciones adaptadas al nivel del estudiante.
5. Usos Restringidos o Prohibidos
5.1. Prohibido
-
Ingresar datos personales o confidenciales de alumnos o terceros.
-
Pedir a la IA la elaboración automática de notas, evaluaciones finales o decisiones sobre aprobación.
-
Introducir documentos completos sujetos a derechos de autor sin autorización.
-
Generar certificados, registros, informes oficiales o comunicaciones dirigidas a DIMAR sin validación humana.
-
Usar IA durante evaluaciones de competencia (fraude académico).
5.2. Restringido
Requiere autorización del Director Académico:
-
Generación de contenido académico para cursos OMI que deba alinearse con la última versión de modelos OMI o STCW.
-
Apoyo en revisiones de riesgo del proceso PR-PSE-01 o auditorías.
6. Riesgos Asociados y Controles
| Riesgo | Descripción | Controles propuestos |
|---|---|---|
| Inexactitud técnica | La IA puede generar contenido erróneo o no alineado con normas DIMAR/OMI. | Revisión humana obligatoria. Validación con documentos oficiales. |
| Fuga de información | Ingreso de datos personales o evidencias académicas en herramientas de IA. | Prohibición expresa. Capacitación anual sobre protección de datos. |
| Dependencia excesiva | Sustitución del criterio profesional del docente o directivo. | Uso como herramienta complementaria; revisión académica obligatoria. |
| Desalineación con el SGC | Documentos creados sin cumplir con codificación, formato o trazabilidad. | Validación del Coordinador de Calidad antes de publicar. |
| Desactualización normativa | La IA puede desconocer cambios recientes de DIMAR o STCW. | Confirmación con fuentes oficiales antes de usar en procesos críticos. |
| Impacto pedagógico negativo | Uso para generar evaluaciones o respuestas que faciliten malas prácticas estudiantiles. | Prohibición de uso para resolver exámenes o tareas de alumnos. |
7. Responsabilidades
Directivos
-
Implementar la política.
-
Supervisar el uso responsable.
-
Asegurar capacitación periódica.
-
Validar documentos estratégicos generados con IA.
Docentes
-
Usar la IA como apoyo y no como sustituto.
-
Revisar y validar todo contenido generado.
-
Conservar la integridad académica y la calidad de la enseñanza.
Dirección Académica
-
Supervisar la correcta integración de IA en el proceso PR-PSE-01.
-
Verificar que los programas académicos no sean alterados sin análisis previo.
-
Mantener coherencia con la autoridad marítima y normas de formación.
8. Declaración Final
La Academia Marítima de Seguridad Integral ASI Ltda. promueve el uso responsable de la Inteligencia Artificial como herramienta de apoyo académico, administrativo y gerencial, garantizando siempre el cumplimiento normativo, la ética profesional, la calidad del servicio educativo y la protección de los datos personales y la propiedad intelectual.
Versión 1.
Autorizado. Director General. Jesús Alberto Gutiérrez Reyes.
Bogotá D.C. 17.oct.2025.