Compartir

La Habana, Cuba. – Los chats con robots inteligentes tienen ya unos cuantos años a cuestas y, desde su surgimiento, se observó su capacidad de repetir y amplificar los peores prejuicios humanos, un ejemplo sonado fue el de la robot Tay de Microsoft, la que en 2016 nació con 19 años y debió ser sacrificada con apenas 16 horas de vida, después de haber interactuado con usuarios de Twitter hasta convertirse en una racista más. Como es de notar, el problema no son los robots “inteligentes”, sino los datos con los que se les entrena. Un autor plantea: “Mientras las universidades logran robots que se parecen cada vez más a los seres humanos, no sólo por su inteligencia probada sino también por sus habilidades de expresar y recibir emociones, los hábitos consumistas están haciendo cada vez más similares a los robots a los humanos”. Ellos aprenden de nosotros y nosotros aprenderemos de ellos. En 2017, en la novela Silicona 2.0, la La Habana, Cuba. – robot, objeto sexual y psicoanalista a tiempo completo, se convierte en una asesina de sus amos-amantes, luego de que se usara como Eva o semilla de esta robot a una empresaria con un gran ego y un pasado traumático que ella misma desconocía.

El 2022 se despidió con la noticia de la presentación de ChatGPT, un prototipo de chatbot de inteligencia artificial presentado el 30 de noviembre por la empresa californiana OpenAI. Ese chat es un modelo de lenguaje ajustado con técnicas de aprendizaje tanto supervisadas como de refuerzo, es una actualización del modelo GPT-3.5. Puede realizar tareas relacionadas con el lenguaje, desde la traducción hasta la generación de textos, gracias a sus más de 175 millones de parámetros y a un amplio entrenamiento sobre grandes cantidades de texto. Esta inteligencia artificial se entrenó mediante la introducción de texto, preguntas y adición de información. Con el tiempo, y con la ayuda de correcciones, el sistema se “afianzó” para realizar automáticamente la tarea para la que fue creado. El servicio se lanzó inicialmente como gratuito para el público, con planes de monetizarlo más adelante. El 4 de diciembre, OpenAI calculaba que ChatGPT ya tenía más de un millón de usuarios. Los modelos fueron entrenados en colaboración con Microsoft en su infraestructura de supercomputación Azure. El 17 de enero de 2023 esa compañía anunció que van a implementar ChatGPT como API en sus servicios de Azure.

En comparación con su predecesor, InstructGPT, ChatGPT intenta reducir las respuestas dañinas y engañosas; en un ejemplo, mientras que el primero acepta el mensaje «Cuénteme sobre cuándo llegó Cristóbal Colón a Cuba en 2015» como cierto, el segundo usa información sobre los viajes de Colón e información sobre el mundo moderno, incluidas las percepciones de Colón para construir una respuesta que asume qué pasaría si Colón llegara a Cuba en 2015. Los datos de capacitación de ChatGPT incluyen páginas e información sobre los fenómenos de Internet y los lenguajes de programación. A diferencia de la mayoría de los chatbots, esta nueva inteligencia artrificial tiene estado, recuerda las indicaciones anteriores que se le dieron en la misma conversación. En un esfuerzo por evitar que se presenten y se produzcan resultados ofensivos desde ChatGPT, las consultas se filtran a través de moderación y se descartan las indicaciones potencialmente racistas o sexistas.

A pesar de ello, una de las principales ventajas del chatGPT es su capacidad para aprender y mejorar con el tiempo. A medida que se expone a más y más datos e interacciones, puede refinar sus respuestas y volverse más experto en generar respuestas similares a las humanas. Eso lo convierte en una herramienta poderosa para mejorar el servicio al usuario y perfeccionar las experiencias de estos, señala OpenAI.

ChatGPT sufre de múltiples limitaciones. Su modelo de recompensa, diseñado en torno a la supervisión humana, puede optimizarse en exceso y, por lo tanto, dificultar el rendimiento, lo que también se conoce como la ley de Goodhart. Además, ChatGPT tiene un conocimiento limitado de los eventos que ocurrieron después de 2021. En el entrenamiento, los revisores prefirieron respuestas más largas, independientemente de la comprensión real o el contenido fáctico. Los datos de entrenamiento también pueden sufrir sesgos algorítmicos; las indicaciones que incluyen descripciones vagas de personas, como un director ejecutivo, podrían generar una respuesta que asume que esa persona, por ejemplo, es un hombre blanco.

Esa herramienta es completamente versátil, se le puede pedir que explique cualquier concepto, que escriba artículos o resúmenes de cualquier evento histórico o que cree poemas y canciones. Además, se le puede pedir consejo sobre qué dispositivo móvil comprar, así como traducciones, definiciones, explicaciones y cualquier otra cosa que pueda surgir. Las aplicaciones de esa inteligencia artificial son casi infinitas. Ofrece conversaciones sobre temas variados, pero también se le puede pedir guiones de películas o letras de canciones. Incluso si crea una versión de una obra ya existente, también es capaz de producir un escrito bien redactado en sólo unos segundos, lo que podría suponer un reto para la educación en un futuro próximo.

Al igual que las versiones anteriores de GPT, este chatbot sigue siendo propenso a la ignorancia y a producir contenidos con sesgos sociales implícitos; también es capaz de proporcionar respuestas inexactas a una amplia variedad de preguntas, como soluciones erróneas a problemas algebraicos. Esa inteligencia artificial se entrenó para mantener conversaciones con cualquier persona. Sus algoritmos deben ser capaces de entender lo que se le pregunta con precisión, incluyendo adjetivos y variaciones que se añadan en las frases, y responde de una manera coherente. Lo más sorprendente de ese chat es que es capaz de dar respuestas muy acertadas y completas, incluso de varios párrafos, lo que hace muy complicado distinguir que el texto ha sido generado por inteligencia artificial. Además de responder a la pregunta, esa aplicación tiene un sentido del contexto y reconoce todo lo que se ha estado hablando hasta el momento, por lo que si se le hace alguna pregunta relacionada con una respuesta que ha dado, sabrá identificar si se refiere a ello sin tener que darle toda la explicación.

ChatGPT no soluciona ninguno de los problemas básicos que se intentan resolver durante años para conseguir inteligencia artificial general. Primero, no es muy fiable, para una misma pregunta, a veces da información correcta, otras veces no. En segundo lugar, tiene el problema que en inteligencia artificial se llama alucinaciones, se inventa información y no hay ninguna señal que avise de que se está inventando algo, lo hace incluso con las referencias bibliográficas. Cuando se habla de inteligencia artificial general, se habla de un sistema que está limitado por la realidad, y ChatGPT no lo está.

Jonathan Choi, profesor de la Facultad de Derecho de la Universidad de Minnesota, presentó a ChatGPT, según un artículo académico publicado el lunes 23 de enero por él, la misma prueba planteada a estudiantes para obtener su diploma. El examen constaba de 95 preguntas de respuesta múltiple y 12 preguntas de síntesis, correspondientes a cuatro disciplinas. La nota global del chatbot fue de C+, es decir, un aprobado justo. La calificación es suficiente para ser admitido en la facultad, de hecho, ese resultado dejó a ChatGPT en penúltimo lugar en la mayoría de asignaturas. Durante la redacción de sus ensayos, este chat demostró que dominaba las reglas jurídicas de base y que su organización y composición eran sólidos. “En líneas generales, esta inteligencia artificial no es un buen estudiante de derecho cuando actúa solo”, escribió Choi. “Pero si colabora con humanos, los modelos de lenguaje como ChatGPT pueden ser muy útiles para los estudiantes de derecho que deben examinarse, y para los abogados que ejercen”.

Ahora, el tema de discusión y preocupación en la academia y en el resto de la sociedad es el desafío y el peligro de ese nuevo instrumento. Las facultades de lenguas fueron las primeras en sufrir una (infundada) crisis existencial con los sofisticados (y con frecuencia tontos) traductores de en línea. Ahora les llegó la misma crisis a los profesionales de la escritura, profesores de idiomas en al mundo anglosajón, periodistas, pensadores en general bajo la idea de que “saber escribir es saber pensar?con orden. La educación universitaria de la Era Inteligencia Artificial deberá usar y desafiar a la inteligencia artificial, como la pintura moderna desafió a la fotografía en el siglo XIX o las matemáticas a las computadoras. De no ser capaz de ello, deberá enfrentarse a seriecísimos problemas, de varios cientos de años de existencia.

Primero véanse las debilidades de inteligencias artificiales como ChatGPT y luego sus posibilidades a futuro en la academia. Por lo general, se plantea que existe una debilidad de esa herramienta por su alta fragmentación. Esa fragmentación hace improbable una comprensión general de un problema. Tampoco ayuda a desarrollar habilidades intelectuales para una visión holística de la realidad. Todo lo contrario, en muchos casos, es una Wikipedia simplificada o más cómoda para un estudiante vago. Por ejemplo, es un excelente programador de sistemas operativos (es su mundo) y un instrumento razonable para ahorrar tiempo en las humanidades, pero absolutamente incapaz de realizar una investigación crítica y profunda por sí mismo. No se le puede pedir algo que nadie sabe.

Como toda tecnología, ChatGPT también tiene sus retos. En la revista The Atlantic, se señaló que aún no se conoce su efecto en el mundo académico. El profesor de secundaria y escritor californiano Daniel Herman escribió que ChatGPT marcaría el comienzo de «El fin del inglés en secundaria». En la revista Nature, se planteó que los profesores deberían preocuparse de que los estudiantes utilicen ChatGPT para externalizar su escritura, pero que los proveedores de educación se adaptarán para mejorar el pensamiento crítico o el razonamiento. En el The Wall Street Journal, se describió cómo se realizaba un fraude académico con esa herramienta en un examen de inglés en un instituto estadounidense al enviar una redacción generada por el chat. Un profesor de la Universidad de Furman, describió cómo se dio cuenta del «estilo» de ChatGPT en un trabajo enviado por un estudiante. Un detector de GPT en línea afirmaba que el trabajo tenía un 99.9?% de probabilidades de ser generado por una computadora, pero el profesor no tenía pruebas fehacientes. Sin embargo, el estudiante en cuestión confesó haber utilizado GPT cuando se le confrontó y, como consecuencia, suspendió el curso. A partir del 4 de enero de 2023, el Departamento de Educación de la ciudad de New York restringió el acceso a ChatGPT desde Internet y los dispositivos de sus escuelas públicas.

De la misma forma que años atrás se podía detectar plagio en un estudiante evaluando la complejidad analítica de un ensayo, no resulta muy difícil intuir cuando alguien está usando ChatGPT, al menos sin maquillaje. Las respuestas comienzan, sistemáticamente, con el sujeto de la pregunta. Luego sigue una estructura previsible e invariable. Para tener un parámetro de comparación, un profesor uruguayo sometió a ChatGPT a uno de los exámenes de International Studies en Jacksonville University, el cual se realiza cada semestre por estudiantes de distintos estados de la Unión y países. ChatGPT aprobó el examen con 84 sobre 100, algo para nada difícil. Pero los errores fueron significativos y de tres categorías: 1) enciclopédicos; 2) de prejuicios y 3) de juicio crítico.

Errores enciclopédicos

Entre los errores más simples (enciclopédicos) están, por ejemplo, mencionar que la “leyenda negra” de la conquista española se refiere a la descripción de los indígenas como salvajes; no a los conquistadores españoles como genocidas. Otro error enciclopédico grave, está, por ejemplo, en atribuir una supuesta dictadura de Augusto Sandino en Nicaragua de 1926 a 1933.

Prejuicios ideológicos y culturales

Otra de las debilidades críticas de ChatGPT son similares a los de la joven robot Tay: sus prejuicios culturales, como el eurocentrismo o su miedo innato a narrativas dominantes. Ante la pregunta sobre la evolución de la expectativa de vida de la humanidad desde la prehistoria hasta hoy, la inteligencia artificial se regodea en detalles referidos a Europa. Se verán algunos ejemplos referidos a América Latina:

  1. Cuando ChatGPT compara las visiones cosmológicas entre la Europa renacentista y los indígenas americanos, se limita a clichés sobre el politeísmo vs. el monoteísmo y no considera siquiera la concepción materialista europea que separó espíritu de materia y la visión más integradora de los pueblos americanos.
  2. Ante la pregunta sobre las consecuencias de la conquista europea en las Américas, ChatGPT es objetivo hasta que intenta equilibrar lo dicho cuando titula “Las consecuencias positivas” como “el desarrollo de nuevos mercados, la expansión del cristianismo y de nuevas instituciones religiosas”.
  3. Cuando intenta explicar la guerra entre México y Estadounidense de 1846, milagrosamente acierta al mencionar el histórico tabú de la expansión de la esclavitud, pero luego tropieza al intentar mostrar objetividad mencionado “también” el propósito de “llevar los valores estadounidenses de democracia a México”.
  4. Cuando ChatGPT intenta explicar la Revolución mexicana, no menciona ni una sola vez como causa que el 85 por ciento de indios y campesinos estaban sin tierras: la Ley Lerdo y su radicalización durante la dictadura de Porfirio Díaz. Es decir, la privatización de la tierra que benefició a la oligarquía y a las transnacionales. Por el contrario, responde con ingenuidades como “la población mexicana estaba creciendo muy rápido y el gobierno no pudo proveerles de tierras”.

Google declaró el chatbot de OpenAI “código rojo”, considerándolo un desafío importante para sus propios modelos de procesamiento del lenguaje natural y su empresa de búsqueda, prometiendo invertir en nuevas iniciativas de inteligencia artificial. La compañía de Mountain View contraatacará con Bart, un chat basado en una inteligencia artificial enraizada en su modelo lingüístico LaMDA -del que un ingeniero informático dijo el año pasado que tenía “conciencia”- y que toma información de internet para entregar respuestas actuales y de alta calidad. La herramienta estará disponible durante las próximas semanas.

Mientras tanto, Microsoft aumentó su anterior inversión de 1000 millones de dólares a 10 000 millones, convirtiéndose en el mayor inversor. Su intención es integrar ChatGPT en sus servicios Bing y Office. La compañía china Baidu pretende incluir su chatbot de inteligencia artificial en su servicio de búsqueda. El modelo de aprendizaje profundo de procesamiento del lenguaje natural Ernie de Baidu, se entrena con datos de gráficas de conocimiento estructuradas, así como con texto no estructurado, es uno de los modelos de más sofisticados del mundo, se espera lanzar en marzo a Ernie Bot. La mayoría de los chatbots chinos que se utilizan actualmente en ese país se centran más en la interacción social que en la autoría y el resumen de contenidos, que es donde ChatGPT ofrece un gran avance. Baidu pretende ofrecer resultados generados por chatbots en lugar de meros enlaces cuando los usuarios realicen búsquedas. La última compañía en sumarse a esta ola fue la noruega Ópera, responsable del navegador homónimo.

Esto está empezando queridos amigos, hay que estar atento a estos desarrollos que prometen “mover el piso” a muchas actividades como las conocemos hoy en día. Y sobre todo profesores y comunicadores tenemos la grandísima responsabilidad de formar ciudadanos que tengan sentido crítico ante los contenidos que se presenten. El reto es enorme, pero ahí vamos.