EL USO DE LA INTELIGENCIA ARTIFICIAL EN EVALUACIÓN DE CONOCIMIENTOS SOBRE PROTECCIÓN MARÍTIMA – CÓDIGO PBIP.
La inteligencia artificial (IA) ha revolucionado numerosos campos, y la educación no es una excepción. Su aplicación en la protección marítima, específicamente en el contexto del Código PBIP, plantea tanto oportunidades como desafíos.
En una tarea de un curso de oficial de protección se le pide al alumno que “Identifique las vulnerabilidades de las medidas de protección de la instalación portuaria para proteger el muelle, los buques atracados y sus alrededores ante una situación “x” dada”, y una de las respuestas que da el alumno es “Vulnerabilidades: Cambio de Guardias: oficial de seguridad con necesidad de ir al baño y relevado por el supervisor, se puede presentar en ese lapso; en donde la llegada del supervisor, un periodo de tiempo donde el muelle no está vigilado completamente”. El detector de fraude especifica que el 74% del texto probablemente ha sido generado por IA y solo el 26 % probablemente ha sido escrito por humanos. Como docente y evaluador se puede evidenciar que, si bien hay una vulnerabilidad expresada en la respuesta, esta no coincide con la situación dada pues en la presentación de la tarea se afirma que el supervisor releva al guarda de seguridad, pero no se habla de lapso, es decir el muelle siempre está vigilado completamente ya bien sea por el guarda o el supervisor, es decir la respuesta de la IA no es la más acertada. La respuesta que se espera que identifique el alumno es el hecho de que, si no se avisa o no se tiene el permiso del centro de control de seguridad de este relevo, esa situación se convierte en una vulnerabilidad que puede ser explotada por una o las dos partes para cometer o facilitar actos criminales al no estar bajo ningún otro medio de control, es decir falta “control del control”. De hecho, esta situación se ha presentado donde el supervisor aprovecha esta situación para facilitar la contaminación del buque con drogas, si el relevo es en el muelle o contaminar un contenedor con drogas si el relevo se hace en un patio de almacenamiento de contenedores.
La IA puede ser una herramienta valiosa para identificar vulnerabilidades en los sistemas de protección de los puertos. Sin embargo, las respuestas generadas por la IA no siempre son precisas. Ante la pregunta sobre las vulnerabilidades asociadas al cambio de guardia, un modelo de IA identificó un posible problema, pero omitió un aspecto crucial: la falta de notificación al centro de control. Este error demuestra que la IA, si bien puede ser útil, no debe reemplazar el juicio crítico humano.
La lección aprendida es que el alumno debe mirar con ojos críticos la respuesta dada por la IA Y, como se suele decir, no hay que aceptar las respuestas de la IA de forma acrítica, sino analizarlas cuidadosamente. Por otro lado, el docente / evaluador, debe mirar con ojos críticos la respuesta y reformular la pregunta para que el alumno se aproxime a la respuesta esperada. Por ejemplo: Señor alumno, si bien en la situación presentada no se especifican lapsos de tiempo donde se deja el muelle sin vigilancia lo que daría sin lugar a duda una vulnerabilidad, ¿Usted que recomendaría para controlar que esta situación no se presente?
El docente debe especificar en la formulación del foro, tarea o taller que la respuesta será verificada por un detector de fraude, así mismo especificar en la respuesta el porcentaje (%) del texto que probablemente ha sido generado por IA y el porcentaje (%) que probablemente ha sido escrito por humanos, junto con el enlace de la página donde se hizo la revisión. Con esto se dejan las reglas claras desde el principio sin entrar en controversias de la veracidad de la respuesta.
Los docentes deben enseñar a los estudiantes a evaluar de manera crítica las respuestas generadas por la IA y a complementarlas con su propio conocimiento, experiencia y criterio. Además, es fundamental que los educadores estén familiarizados con las limitaciones de la IA y puedan identificar los sesgos que pueden estar presentes en los modelos de lenguaje.
Se deja entonces claro que la IA sirve para generar o mejorar conocimiento, pero es necesario el análisis crítico de la respuesta desde el punto de vista de la “protección marítima”. Lo invito a poner a prueba la IA con saberes que usted domina muy bien o en la que es un experto para que usted mismo pueda comprobar las desviaciones que comete la IA.
En cuestiones básicas la IA genera un gran aporte a la construcción de conocimiento, pero es cuestiones especializadas no da la respuesta acertada.
Por otro lado, la IA como “Gemini” o “Chat GPT” manejan su propio modelo de respuesta que fácilmente puede ser identificado por el docente, pero, aunque el alumno cambie su estructura, la respuesta sin análisis crítico y mejora por parte del alumno siempre será la misma. Es ahí donde las páginas que detectan el fraude identifican una probabilidad alta que texto ha sido generado por IA y una probabilidad muy baja que ha sido generada por humanos.
No siempre la IA aporta respuestas acertadas y concretas en relación con la seguridad. Las respuestas son genéricas. Como oficial de protección debe analizar la situación que se le presente y con base en la norma y las buenas prácticas de seguridad portuaria debe dar respuesta. No tema no dar con la respuesta, El docente lo guiará en la solución acertada.
¡Atención! Utilizar una IA para corregir tus tareas puede generar falsos positivos en los detectores de plagio. Para evitar problemas, te recomendamos revisar tus trabajos cuidadosamente y utilizar herramientas como Word para realizar las correcciones. ¡La originalidad de su trabajo es fundamental!
Conclusiones.
1. La IA como Herramienta Complementaria:
- La IA demuestra ser una herramienta valiosa para la identificación de vulnerabilidades en sistemas de protección marítima, pero su uso debe ser complementario al pensamiento crítico humano.
- Los modelos de IA pueden generar hipótesis y perspectivas iniciales, pero no reemplazan la necesidad de un análisis profundo y contextualizado por parte de expertos en la materia.
2. La Importancia del Pensamiento Crítico:
- La capacidad de evaluar de manera crítica las respuestas de la IA es una habilidad esencial para los profesionales de la protección marítima.
- Los estudiantes deben identificar las limitaciones de la IA, detectar sesgos en los resultados y complementar la información generada por la IA con su propio conocimiento y experiencia.
3. El Rol del Docente en la Era de la IA:
- Los docentes deben adaptar sus métodos de enseñanza para fomentar el desarrollo del pensamiento crítico en los estudiantes, incentivando la reflexión y el análisis de la información generada por la IA.
- Es fundamental que los educadores estén actualizados en las últimas tendencias en inteligencia artificial y puedan guiar a sus estudiantes en el uso responsable y efectivo de estas herramientas.
4. La Necesidad de Estándares y Protocolos:
- Es necesario establecer estándares y protocolos claros para la evaluación de trabajos académicos que involucren el uso de IA, garantizando la transparencia y la objetividad en la evaluación.
- La implementación de herramientas de detección de plagio basadas en IA puede ser útil, pero no deben ser el único criterio de evaluación.
5. Desafíos y Oportunidades Futuras:
- La creciente sofisticación de los modelos de lenguaje plantea nuevos desafíos en términos de detección de plagio y evaluación de la originalidad.
- Sin embargo, también abre nuevas oportunidades para la personalización de la educación y el desarrollo de herramientas de aprendizaje más eficientes.
6. Ética en el Uso de la IA y Co-creación de conocimiento.
- Es crucial abordar las implicaciones éticas del uso de la IA en la educación y en la protección marítima, asegurando que estas tecnologías se utilicen de manera responsable y equitativa.
- La IA puede facilitar la co-creación del conocimiento entre humanos y máquinas, permitiendo a los expertos en la materia profundizar su comprensión de los problemas y desarrollar soluciones más innovadoras.