Vivimos tiempos en que la Inteligencia Artificial (IA) transforma cada aspecto de nuestra vida: por un lado, en nuestro imaginario, pues aquellas imágenes que experimentábamos a través del cine, la literatura y las artes con respecto a un futuro donde ésta fuera parte de nuestra vida cotidiana, para bien y para mal, se va tornando realidad.
Por otro lado, porque en ese tornarse realidad, al popularizarse las versiones de Inteligencia Artificial, se asoman preocupaciones en distintos sectores de la comunidad internacional: las IA son sistemas con formas de representación de nuestras comunidades y su experiencia cultural, política, económica, religiosa.
También lee: ¿La IA es feminista? Esto dicen expertas de la UNAM
Y si bien la IA generativa (las que vemos a través de las versiones de GPT o Copilot, por mencionar algunas) en sus respuestas deja ver nuestra experiencia como sociedad, no podemos ignorar que las representaciones de nuestras comunidades han estado sesgadas por la forma en que transmitimos la historia, por las voces que dejamos que se escuchen, y que implican otras que no dejamos que se escuchen; por los grupos sociales que reconocemos como modelos, y que implica no reconocer a otros, y así sucesivamente en lo que respecta a nuestra experiencia representada.
Esto nos atañe a todas, todes, porque al usar estas tecnologías de IA generativa, tendríamos que entender que funcionan con bases de datos, estructuradas y no estructuradas, administradas (llenadas, administradas, programadas) por personas. En sus resultados obtenemos posturas sociales, políticas y culturales.
Es importante que como usuarios de la IA tengamos conciencia de cómo funciona y lo que implica su uso: son sistemas de procesamiento de lenguaje natural (NLP) basados en representaciones de lenguaje pre entrenadas para aprender utilizando miles o millones de ejemplos en una estructura basada en la arquitectura neural del cerebro, un gran avance, sin duda, en lo que respecta a la visualización de datos: tenemos así la impresión de interactuar con una “inteligencia”.
Los miedos entre la comunidad ante la IA no son baladíes: un uso indiscriminado de esta tecnología podría afectar mucho el desempeño académico de los estudiantes; aumentar la brecha digital y el desarrollo de los pueblos, o impactar los derechos humanos de las personas ante la falta de representatividad de perfiles.
Podría incluso afectar al medio ambiente si no se desarrolla la tecnología adecuada para sostener estos modelos tecnológicos, ya que el impacto ambiental de mantener y procesar estas bases de datos es significativo debido al uso de energía en los centros de datos, lo que contribuye a grandes emisiones de carbono.
Es verdad que la IA representa desafíos: un reporte de encuesta de la UNESCO llevada a cabo en 2023 en escuelas asociadas a este organismo nos muestra que menos del 10 por ciento de las escuelas y universidades disponen de orientación formal sobre la IA.
Estos resultados son preocupantes, pues generan incertidumbre, ya que las nuevas versiones de esta tecnología pueden dar resultados similares a los humanos en tareas como resúmenes, ensayos, mapas o desarrollo de programas informáticos.
Y ante la falta de políticas educativas, la comunidad reacciona: ni docentes ni estudiantes se detienen en su uso en las aulas y en el desarrollo de tareas, solo que, ante la ausencia de modelos arbitrados, los resultados podrían no ser los esperados y contraproducentes.
Disciplinas como las Humanidades Digitales han integrado desde su aparición métodos humanísticos y tecnológicos para el desarrollo de métodos propios que permitan responder a preguntas no solo sobre el impacto de la tecnología en el quehacer de las comunidades, sino que desarrolla proyectos que impactan directamente en la forma en que la tecnología se tendría que adaptar a las personas.
Desde esta disciplina se ha propuesto el desarrollo de una IA inclusiva, sostenible que aporte al bienestar, donde se respeten los derechos humanos, la diversidad, valores democráticos y apostando por la intervención humana cuando sea necesario: sistemas de IA con métodos supervisados, para garantizar sociedades justas, equitativas, principios que coinciden con recomendaciones que ha hecho la Organización para la Cooperación y el Desarrollo Económicos (OCDE).
Ejemplos aplicados de estos principios son proyectos académicos de profesores investigadores y estudiantes de Humanidades Digitales del Tecnológico de Monterrey, donde se promueven valores como centro del desarrollo de proyectos digitales intervienen en organizaciones civiles, oficinas de gobierno o para atender problemas de la industria con soluciones tecnológicas.
Desde nuestra perspectiva académica y científica, son posibles soluciones para una mejor interacción con la IA, y es necesario empoderar a nuestras comunidades mediante programas formativos que les ayuden a interactuar con estos sistemas de forma que le saquen mayor provecho y les permita implementarlas para su beneficio, y para formar parte de su comunidad en proyectos donde puedan asegurar su presencia y representación en los sistemas y narrativas digitales que la tecnología nos permite.