X
    Categorías: Opinión

La IA, entre la ética, la apropiación crítica y sus paradojas

Foto: Unsplash

La Inteligencia Artificial (IA) ha dejado de ser un mero concepto futurista para convertirse en una realidad. Desde asistentes digitales de investigación, recursos de marketing virtual 5.0, hasta sistemas de diagnóstico médico, la IA ha permeado diversos sectores de la sociedad, generando admiración, miedo, desconcierto, así como preocupación. Desde una óptica entusiasta se piensa que robots y humanos trabajarán juntos armónicamente. 

En contraparte, parece que la IA vendrá a desplazarnos. De acuerdo con la empresa tecnológica OpenAI, “el 80% de la población activa podría verse afectada por la IA en algún grado, y alrededor del 19% de los trabajadores podrían ver afectadas al menos el 50% de sus tareas” (Euronews, 2023).

También lee: La educación frente a la inteligencia artificial: ¿perderemos la batalla?

La IA ha puesto en entredicho diversos campos de la vida social. Y, por supuesto, de nuestra autonomía ante la misma. Por tanto, hoy nos cuestionamos hasta qué punto deberíamos permitir que las máquinas tomen decisiones, aconsejen a las personas o asuman responsabilidades de éstas. 

Aspectos ante los que cuestionamos: ¿dónde trazamos la línea entre la utilidad y la ética?¿Por qué delegamos nuestra responsabilidad a la IA? ¿Cómo se pueden tejer puentes de colaboración entre máquina/humano? ¿Cómo apropiarnos de la IA? Y sobre todo: ¿Qué nos hace humanos ante la IA?

Ante ello, proponemos una agencia social ante la IA. Acto seguido, es importante entender que la agencia como lo propone el clásico pensador Anthony Giddens, implica la capacidad subjetiva y colectiva de actuar en el entorno, pasando de un rol pasivo (en las estructuras sociales y culturales) a uno activo. También significa autonomía y distribución en el entorno. 

Pongamos un ejemplo: hay que ser capaces de estructurar instrucciones (prompts) para que las herramientas de IA, nos ayuden a pensarlo. Para este artículo, puedo utilizar a Perplexity en la búsqueda de datos o instrucciones. Pero en mi agencia, corroboro la información y posteriormente me la reapropio. Por el contrario, me han tocado casos de personas que dan la instrucción y sólo copian/pegan. Es decir, no hay capacidad de agencia ante el algoritmo. 

La agencia nos permite desempeñar un papel activo, ser autónomos y tener un impacto. Porque queremos dejar algo claro: no estamos condenados a perder autonomía frente a la tecnología. Por tanto, invitamos, como diría el experto en TIC José Candón, a hacer un uso disruptivo de la tecnología -y agregaríamos- de la IA. Por ejemplo, puede ayudar a organizaciones de la sociedad civil a generar contenidos para dar a conocer sus labores. A profesores para planificar actividades lúdicas. 

Ante todo: ser agentes frente a la IA

Es necesario llevar la mencionada agencia a la educación. Si bien, hemos sido testigos de casos de deshonestidad académica, hoy mismo diversas universidades a las que he capacitado en temas de ética de la IA están discutiendo cómo incorporar prácticas éticas de la IA; en temas de plagio, citación, revisión de artículos… 

En este marco, exploremos la siguiente afirmación proveniente de un estudio llamado “Chatting and Cheating. Ensuring academic integrity in the era of ChatGPT”, en el cual se establece que en la problemática de la integridad académica el problema de fondo es que los humanos usamos mal las herramientas tecnológicas. 

Resulta paradójico que este artículo fue escrito por el propio Chat GPT, que a veces pueda tener más agencia ante los humanos, que los humanos ante la IA. Porque hoy ya se cuentan entre los salones historias de plagios y otros más complicados, proyectos hechos con ayuda de IA, pero que no están bien citados (me ha tocado calificar algunos). 

Pongámoslo en términos terrenales: podemos permitir que el estudiante utilice Chat GPT, siempre y cuando sea crítico con sus prompts, le brinde información fidedigna basada en fuentes académicas y sea capaz de verificar la información. Y para ello se precisa un profesor que explique los procesos. 

Otro ejemplo: no pidas a Chat GPT (O Perplexity, Sci Space o Alex AI) que te haga un capítulo de tesis. En cambio, puedes colocar el objetivo de tu proyecto, y pedirle una matriz de estado del arte que contenga objetivos, marco teórico, metodología, conclusiones y resultados. Y en todo caso, ocupa Perplexity o Sci Space, que te proporcionarán fuentes científicas e indexadas (para ejemplos visuales, hemos hecho más de 300 tiktoks sobre el tema en el TikTok de Tesicafé) . 

Insistimos, no se trata sólo de “copiar/pegar”; sino de darle instrucciones precisas a la IA (prompts), reflexionar y verificar la información. 

 

Espera la segunda parte…

Luis Josué Lugo: Luis Josué Lugo Sánchez es Dr. en Ciencias Políticas y Sociales por la UNAM con especializaciones en Comunicación, Big Data y Psicoanálisis. Candidato al Sistema Nacional de Investigadores y consultor para proyectos de innovación educativa.

Esta web usa cookies.