Exploremos la siguiente afirmación proveniente de un estudio llamado “Chatting and Cheating. Ensuring Academic Integrity in the Era of ChatGPT”, en el cual se establece que en la problemática de la integridad académica el tema de fondo es que los humanos usamos mal las herramientas tecnológicas.
Resulta paradójico que ese artículo fue escrito por el propio ChatGPT, que a veces parece tener más Agencia ante los humanos, que los humanos ante la IA. Porque hoy, en los salones, ya se cuentan historias de plagios. Además, existen proyectos más complicados hechos con ayuda de IA, pero que no están bien citados. En lo personal yo he calificado algunos. Cabe destacar que la Agencia como lo propone el clásico pensador Anthony Giddens, implica la capacidad subjetiva y colectiva de actuar en el entorno.
También lee: La IA, entre la ética, la apropiación crítica y sus paradojas
Ante este escenario la sugerencia es evitar pedir a ChatGPT (O Perplexity, Sci Space o Alex AI) que te haga un capítulo de tesis. En cambio, puedes colocar el objetivo de tu proyecto, y pedirle una matriz de “estado del arte” que contenga objetivos, marco teórico, metodología, conclusiones y resultados. Y en todo caso, ocupa Perplexity o Sci Space, que te proporcionarán fuentes científicas e indexadas (para ejemplos visuales vista TikTok, espacio en el que hemos subido más de 300 contenidos sobre el tema. La cuenta es: Tesicafé).
Insistimos, no se trata solo de “copiar/pegar”; sino de darle instrucciones precisas a la IA (prompts), reflexionar y verificar la información.
Es importante apropiarnos de la IA. Cabe aducir que por apropiación entendemos (lo cual profundizaremos más en un libro que publicaremos más adelante) el ejercicio de habilidades informáticas y el capital cultural disponible en los usuarios. De tal suerte que acceso y uso se materializan en la apropiación de las tecnologías. Es decir, en su incorporación a las prácticas sociales cotidianas de los usuarios (esta idea la tomamos de la reconocida investigadora Delia Crovi).
Incluso, esta es una de las propuestas que más debemos trabajar quienes capacitamos y brindamos talleres. Fomentar la apropiación de la IA. Que no sólo sea un artefacto, o un utensilio. Sino que apoye verdaderamente a las personas en sus labores diarias, logrando empoderarles en sus prácticas. Y para ello precisan incorporarle a su capital cultural.
Al tiempo que en la IA también hay sesgos y brechas (lo que inevitablemente imposibilita hablar de más apropiaciones). Riesgo geopolítico que observamos en la IA, pues la mayoría de la información proviene de países del centro capitalista, tales como Estados Unidos. Como estudia el investigador Pahl:
“Al igual que muchas tecnologías, es probable que la Inteligencia Artificial (IA) tenga un efecto de fragmentación en la distribución salarial. Los trabajadores que realizan estas tareas nuevas y más complejas asistidas por la IA probablemente reforzarán su posición en la distribución salarial global a medida que sean más productivos. Estos trabajadores suelen estar más cualificados y ya se dedican a actividades más complejas. Los que realizan tareas relativamente sencillas o rutinarias, en cambio, tienen más posibilidades de ser sustituidos por la IA (u otras tecnologías) y puede que tengan que pasar a segmentos salariales más bajos. (Pahl, 2023, s.p.). Tales estimaciones, de nuevo conminan a que el Estado ponga más atención a los sectores que se estima, van a ser desplazados. A esto sumemos brechas de género, edad, acceso, uso y apropiación. Temas que en sí mismos, nos retan desde la investigación y las políticas públicas”.
Lee también: Experiencias al utilizar inteligencia artificial
Ergo, necesitamos una formación de una ciudadanía crítica e informada en la era digital. Para ello, proponemos la expansión de talleres y capacitaciones, que si bien pueden partir de instituciones educativas, necesariamente se tienen que llevar a otros grupos sociales.
Y no podemos olvidarnos de abordar la relación IA/medio ambiente. De nuevo, retornando a visiones entusiastas, la IA puede ayudar a combatir el cambio climático, optimizar el uso de recursos y promover prácticas sostenibles. No obstante, es esencial garantizar que su implementación no genere nuevas formas de desigualdad o explotación.
Entre las paradojas de la IA, ésta promete ser una herramienta valiosa, pues mientras hay proyectos de protección de especies en el Amazonas, que funcionan con apoyo e IA, también subyace una huella de carbono sustantiva cada vez que usamos Chat GPT o Perplexity. Dice la ingeniera Nuria Oliver que la huella de carbono de la IA es muy elevada: “Hay un movimiento dentro de la disciplina de cómo diseñar algoritmos de IA que sean más eficientes energéticamente, que necesiten menos datos y que necesiten menos computación para reducir la huella de carbono”, expresa la ingeniera de telecomunicaciones.
Finalmente, entre los embrollos de la IA, asumimos como un reto el trabajo de nuestras propias subjetividades políticas. Es importante pensar a la IA a partir de nuestra identidad y subjetividad: ¿Qué nos hace ser sujetos? ¿Qué de nuestra historia puede coadyuvar a generar contenidos que brinden alternativas de uso ético en el contexto de la IA? ¿Cómo a través del lenguaje vamos a apropiarnos de la IA?
Porque, más allá de sus aplicaciones prácticas y técnicas, la IA también nos desafía a reconsiderar nuestra propia identidad. Esto nos impulsa a reflexionar sobre qué significa ser humano en un mundo cada vez más digitalizado. O en términos clásicos: ¿quién soy? ¿qué soy? ¿hacia dónde voy? Y no, esto no lo va a responder Chat GPT por nosotros.
En conclusión, la IA no es solo una herramienta tecnológica avanzada; sino es un espejo que refleja nuestras esperanzas, temores y dilemas éticos.
Como desarrollaremos con más amplitud en nuestro libro, agregamos que lo humano implica el saber poner límites y hacerse cargo de la libertad que uno posee:
La capacidad del ser humano para establecer y perseguir fines es una manifestación de su libertad y conocimiento intelectual”. (Sánchez, s.a., p.8). Por tanto, los límites y fines son muy humanos. Y la capacidad de performarlo es necesaria. Sigue Sánchez (s.a.), lo humano tiene una capacidad infinita de conocimiento. Puede establecer nuevos fines que integren y asuman fines anteriores.
Finalmente, a medida que avanzamos hacia un futuro interconectado con la IA, es imperativo que continuemos cuestionando, debatiendo y tomando decisiones informadas y éticas sobre su desarrollo y aplicación. La IA, en última instancia, es una creación humana, y su futuro debe ser guiado por una humanidad alfabetizada comunicativamente.
Invitamos a hacer de la IA una herramienta de uso ética y responsable. Al final, esta es una representación nuestra; tanto subjetiva como colectivamente. Podemos aducir que: “Si una IA aprende a partir de modelos «equivocados», puede volverse rápidamente racista, vulgar e hiriente” (UMI, 2023, s.p.).
Aunque para organismos como la UNESCO hay posibilidad de uso ético y educativo de la Inteligencia Artificial: “La IA puede brindar apoyo a millones de estudiantes para completar la educación secundaria, cubrir 3,3 millones de puestos de trabajo adicionales y, de manera más urgente, ayudarnos a hacer frente a la propagación y las consecuencias de la pandemia de COVID-19” (UNESCO, s.a., s.p.)
Lo podemos extender a áreas como el arte y la política, pues la IA forma parte de procesos didácticos, potenciar acciones colectivas y convertirse en asistentes que potencien las habilidades del individuo.