Inteligencia artificial en la ética de la educación

 

Ulises Octavio Irigoin Cabrera, Jaime Soto Vilca, Erlin Guillermo Cabanillas Oliva, Kattya Rosscelyn Silvera García, Rosaura García Rojas, Macedonio Huamani Casaverde

 

© Ulises Octavio Irigoin Cabrera, Jaime Soto Vilca, Erlin Guillermo Cabanillas Oliva, Kattya Rosscelyn Silvera García, Rosaura García Rojas, Macedonio Huamani Casaverde, 2024

 

 

Primera edición: Septiembre, 2024

Editado por:

Editorial Mar Caribe

www.editorialmarcaribe.es 

Av. General Flores 547, Colonia, Colonia-Uruguay.

RUC: 15605646601 

Diseño de cubierta: Yelitza Sánchez Cáceres

 

Libro electrónico disponible en https://editorialmarcaribe.es/inteligencia-artificial-en-la-etica-de-la-educacion/

Formato: electrónico

ISBN: 978-9915-9706-2-2

ARK: ark:/10951/isbn.9789915970622

 

Aviso de derechos de atribución no comercial: Los autores pueden autorizar al público en general a reutilizar sus obras únicamente con fines no lucrativos, los lectores pueden usar una obra para generar otra obra, siempre y cuando se dé el crédito de investigación y, otorgan a la editorial el derecho de publicar primero su ensayo bajo los términos de la licencia CC BY-NC 4.0.

 

Índice

Introducción

Capítulo 1

Evolución de la inteligencia artificial (IA) desde Turing

1.1 IA: modelos

1.2 Test de Turing

1.3 Los lenguajes de programación

1.4 Las aplicaciones

1.5 Los ambientes de desarrollo

1.6 Inteligencia artificial, educación y tecnologías: ¿buenas o malas?

1.7 IA: significado

Capítulo 2

Inteligencia artificial, aprendizaje y ética. ¿Cómo funciona?

2.1 La discriminación y la desigualdad

2.2 Las arbitrariedades en las decisiones

2.3 Las huellas digitales

Capitulo 3

¿Qué hace la inteligencia artificial?

3.1 La educación

3.2 Inteligencia artificial en la era digital

Capítulo 4

Inteligencia artificial y pensamiento crítico

4.1 Desafíos

4.2 Abordaje en la clase sobre la IA

4.3 Reiniciar

Conclusiones

Bibliografía


Introducción

A medida que la prevalencia de la inteligencia artificial (IA) continúa creciendo, es crucial reconocer los posibles inconvenientes asociados con su avance. El surgimiento de la IA trae consigo una multitud de preocupaciones que tienen profundas implicaciones tanto para los individuos como para la sociedad en su conjunto, destacando la necesidad apremiante de consideraciones éticas en el ámbito de la inteligencia artificial. Es esencial reconocer que el uso indebido de la tecnología de inteligencia artificial puede exacerbar las desigualdades existentes, al mismo tiempo que se reconoce que los algoritmos programados inadecuadamente pueden resultar en una discriminación injusta contra las personas, como negarles el acceso a servicios vitales como el seguro médico. Por lo tanto, la dimensión ética de la IA desempeña un papel fundamental a la hora de mitigar estos resultados adversos y garantizar que los beneficios de la IA se aprovechen de manera justa y equitativa.

La inteligencia artificial juega un papel destacado en varios aspectos de nuestra vida cotidiana. Los asistentes de voz, como Siri o Alexa, se han vuelto comunes y nos permiten interactuar con la tecnología utilizando el lenguaje natural. Cuando buscamos algo en Google, la función de búsqueda predictiva utiliza algoritmos de inteligencia artificial para anticipar y mostrar resultados de búsqueda relevantes. De manera similar, las tiendas en línea emplean inteligencia artificial para brindar recomendaciones de productos personalizadas basadas en nuestro historial de navegación y compras. Muchas empresas utilizan ahora los chatbots, impulsados ​​por IA, para mejorar el servicio y la asistencia al cliente.

Asimismo, la IA está en el centro de los sistemas de automatización del hogar, lo que nos permite controlar y administrar varios dispositivos, como luces, termostatos y sistemas de seguridad, con facilidad. Incluso cuando utilizamos mapas para la navegación, los algoritmos de IA funcionan en segundo plano para proporcionar actualizaciones de tráfico en tiempo real y sugerir las rutas más eficientes. La razón detrás de todos estos avances es que la inteligencia artificial puede procesar y analizar grandes cantidades de datos e información, imitando la inteligencia humana. Esto significa que los sistemas de IA poseen capacidades como razonamiento, aprendizaje, percepción, planificación, predicción y control, lo que les permite realizar tareas que antes estaban reservadas a los humanos.

En este contexto, la Unión Europea ya advierte en su propuesta de reglamento sobre inteligencia artificial de que su uso puede tener un impacto negativo en derechos fundamentales por sus características (como opacidad, complejidad, dependencia de datos o comportamiento autónomo).

Del mismo modo, la Recomendación sobre la ética de la inteligencia artificial, adoptada por los 193 Estados miembros de la UNESCO en 2021, destaca las implicaciones éticas de la inteligencia artificial en términos de su impacto “en la toma de decisiones, el empleo y el trabajo, la interacción social, la atención sanitaria, la educación”. , medios de comunicación, acceso a la información, brecha digital, protección del consumidor y protección de datos personales, medio ambiente, democracia, estado de derecho, seguridad y mantenimiento del orden, doble uso, y derechos humanos y libertades fundamentales, incluida la libertad de expresión, la privacidad y la no discriminación .”

En este sentido, la Ley integral 15/2022 de Igualdad y No Discriminación supone el primer planteamiento regulatorio en España para el uso de la inteligencia artificial por parte de administraciones públicas y empresas. Administraciones y empresas también promoverán el uso de inteligencia artificial "ética, fiable y respetuosa de los derechos fundamentales".

Capítulo 1

Evolución de la inteligencia artificial (IA) desde Turing

A lo largo de la historia, el ser humano ha anhelado la capacidad de crear seres similares a ellos. Se han esforzado por desarrollar artefactos que no sólo se parezcan a los humanos, sino que también se muevan y se comporten como ellos. Una persona que profundizó en este concepto fue el escritor e historiador ruso Isaac Asimov. Nacido en 1920 y fallecido en 1992, Asimov exploró el reino de la ciencia ficción, imaginando objetos y escenarios que parecían descabellados en su época. Sin embargo, con el paso del tiempo, muchas de sus ideas se hicieron realidad.

En su libro Runaround, Asimov presentó lo que ahora se conocen como las tres leyes de la robótica. Esta obra maestra literaria sirvió como catalizador para científicos e ingenieros, encendiendo su deseo de dar vida a estas leyes. En la década de 1950 se produjo un gran avance con el desarrollo del perceptrón Rossenblatt este revolucionario sistema se centró en el reconocimiento de patrones visuales, con el objetivo de resolver una amplia gama de problemas. Desafortunadamente, el entusiasmo inicial en torno a este logro se desvaneció rápidamente.

Mientras tanto, en esta época, el matemático inglés Alan Turing, que vivió entre 1912 y 1954, propuso una prueba para determinar la presencia de "inteligencia" en dispositivos no biológicos. Esta prueba, conocida como "prueba de Turing", tenía como objetivo demostrar la existencia de la inteligencia artificial. Edward Feigenbaum y su equipo de investigadores comenzaron a desarrollar sistemas expertos para resolver problemas cotidianos. Estos sistemas tenían como objetivo abordar cuestiones más concretas y prácticas, sentando las bases para el campo de los sistemas expertos.

Después en 1957, Alan Newell y Herbert Simon crearon un programa llamado GPS (General Problem Solver) mientras trabajaban en pruebas de teoremas y ajedrez por computadora. Este programa permitía a los usuarios definir un entorno con objetos y operadores, separando la información del problema de la estrategia utilizada para resolverlo. Aunque el GPS podía resolver ciertos problemas como el de las "Torres de Hanoi", era incapaz de abordar problemas del mundo real o tomar decisiones importantes. Se basó en reglas heurísticas y el método de prueba y error para alcanzar los resultados deseados. El primer sistema experto, Dendral, se construyó en 1967 y sirvió como intérprete de espectrogramas de masas. Sin embargo, el sistema experto más influyente resultó ser Mycin, desarrollado en 1974.

Mycin tenía la capacidad de diagnosticar trastornos sanguíneos y prescribir la medicación adecuada, lo que lo convirtió en un logro notable para su época. Estos sistemas expertos incluso encontraron aplicaciones prácticas en hospitales, como por ejemplo el sistema Puff. En general, estos avances y contribuciones de diversos investigadores y científicos han allanado el camino para el desarrollo de máquinas inteligentes y sistemas de inteligencia artificial en el campo de la informática. Alan Turing hizo dos contribuciones importantes en este campo. En primer lugar, diseñó el primer ordenador capaz de jugar al ajedrez, lo que supuso un logro innovador. En segundo lugar, estableció la naturaleza simbólica de la informática, destacando los principios fundamentales que subyacen en este campo.

En 1958, John McCarthy desarrolló un lenguaje de programación conocido como LISP mientras trabajaba en el MIT. LISP, derivado de "LISt Processing", todavía se utiliza hoy en día y es particularmente conocido por su utilización de listas encadenadas como estructuras de datos importantes. Según Alan Turing en 1950, si una máquina exhibe inteligencia en todos los aspectos, entonces puede considerarse inteligente. Esta afirmación llevó a que los investigadores de la época se centraran significativamente en el desarrollo de sistemas lingüísticos de inteligencia artificial, también conocidos como "chatbots". Marcó el nacimiento de estos robots de chat y despertó un gran interés dentro de la comunidad científica por la creación de máquinas inteligentes. En 1965, Joseph Weizenbaum creó el primer programa interactivo llamado ELIZA. Permitió a los usuarios entablar conversaciones escritas con una computadora en inglés, lo que marcó un avance significativo en el campo del procesamiento del lenguaje natural.

1.1 IA: modelos

Dentro del ámbito de los modelos de Inteligencia Artificial existe un sistema de clasificación que se basa en el objetivo y el funcionamiento del sistema. Inicialmente, estas clases se consideraban entidades separadas, pero a medida que pasó el tiempo, se han ido mezclando características entre ellas:

1.2 Test de Turing

El test de Turing, propuesto por Alan Turing en 1950, tiene como objetivo proporcionar un medio para evaluar la Inteligencia Artificial. Para ser considerado inteligente, un ser o una máquina debe engañar con éxito a un evaluador haciéndole creer que es un ser humano, demostrando toda la gama de habilidades cognitivas que poseen los humanos. Según Turing, si una máquina es capaz de entablar un diálogo y cometer un número similar de errores que un humano en la comunicación, puede considerarse "inteligente".

En la actualidad, la tarea de programar un ordenador para superar el test de Turing es muy compleja. La computadora debe poseer varias capacidades clave:

Este proceso de autoaprendizaje conduce también a la autoevaluación. En esencia, la prueba de Turing establece un alto estándar para evaluar la inteligencia artificial, exigiendo que las máquinas posean una variedad de capacidades complejas para imitar de manera convincente la inteligencia humana. Para pasar la prueba de Turing completa, una computadora debe estar equipada además con capacidades visuales y robóticas. La vista permite a la máquina percibir objetos en su entorno, mientras que la robótica le permite manipular los objetos que ha percibido.

1.3 Los lenguajes de programación

Un lenguaje de programación sirve como un medio creado por el hombre para comunicar comandos a una computadora. Si bien es posible utilizar cualquier lenguaje computacional para crear herramientas de inteligencia artificial, existen herramientas dedicadas que están diseñadas específicamente para ayudar en el desarrollo de sistemas inteligentes, entre los más destacados se encuentran:

Este lenguaje no sólo introdujo un entorno de desarrollo visualmente atractivo y fácil de usar, sino que también revolucionó el mundo de la programación al introducir el concepto de objetos y cambiando fundamentalmente los paradigmas de programación existentes. Si bien existen ciertas costumbres compartidas y pasos generales en el desarrollo de aplicaciones entre los programadores, trabajar con Smalltalk es una experiencia altamente personalizada, en la que cada individuo configura el entorno y utiliza las herramientas a su manera. Este lenguaje interrumpe por completo el ciclo tradicional de escritura/compilación/ejecución, reemplazándolo con un proceso interactivo y creativo. En palabras del propio Kay, “El propósito del proyecto Smalltalk es proporcionar soporte computacional al espíritu creativo que reside en cada persona” (Ingalls, 1981). Las ideas y principios empleados en el desarrollo de Smalltalk sirven como base para la programación orientada a objetos (POO) moderna, aunque la POO tardó varios años en ganar popularidad generalizada. Además, Smalltalk desempeñó un papel pionero en el desarrollo de interfaces gráficas de usuario (GUI), allanando el camino para las interfaces sofisticadas que vemos en las aplicaciones de software actuales. En particular, Kay continúa involucrada en el desarrollo de Smalltalk a través de iniciativas de código abierto como Squeak y Croquet.

1.4 Las aplicaciones

Los primeros éxitos en la investigación de la IA se pueden observar en el campo del lenguaje. Un ejemplo de reconocimiento global es el programa llamado "Eliza", desarrollado por el profesor Joseph Weizenbaum en el Instituto Tecnológico de Massachusetts entre 1964 y 1966. Eliza, uno de los primeros programas en procesar el lenguaje natural, atrajo la atención tanto de partidarios como de escépticos de la IA. Weizenbaum pretendía crear un programa capaz de entablar conversaciones de texto coherentes con humanos.

Esta famosa demostración simuló al reconocido psicólogo Carl Rogers, quien contribuyó al desarrollo de la terapia centrada en la persona. Weizenbaum también expresó su preocupación por la IA en su libro "Computer Power and Human Reason", destacando la posible pérdida de libertades civiles si la IA no se utiliza de manera responsable, a pesar de sus enormes oportunidades. Otro ámbito en el que se produjeron aplicaciones de IA de gran éxito fueron las ciencias naturales. Estas aplicaciones allanaron el camino para los principios de almacenamiento y manipulación de bases de conocimiento en sistemas expertos.

Un sistema experto se define como una aplicación informática que resuelve problemas complejos que normalmente requerirían una amplia experiencia humana. Uno de los primeros sistemas expertos, conocido como "Dendral", fue desarrollado por Edward Feigenbaum en el Instituto Carnegie de Tecnología. Feigenbaum fue influenciado por el trabajo de otros investigadores influyentes como John Von Newman inicialmente y luego Herbert Simon y Allen Newell. El interés de Feigenbaum por estudiar los procesos mentales humanos se despertó cuando Newell anunció en su clase los primeros modelos informáticos del pensamiento y la toma de decisiones humanos.

Así, la evolución de la inteligencia artificial ha estado marcada por diferentes etapas, algunas enfrentando escepticismo y otras conduciendo a avances significativos. Los sistemas expertos, el procesamiento del lenguaje y las aplicaciones de las ciencias naturales han desempeñado papeles esenciales en el desarrollo de la IA. Además, investigadores como Weizenbaum y Feigenbaum han contribuido enormemente al campo, tanto en términos de aplicaciones innovadoras como de consideraciones reflexivas sobre las implicaciones éticas de la IA. Desde sus inicios, la inteligencia artificial ha pasado por varias etapas, cada una con su propio nivel de motivación y financiación para la investigación.

Algunas etapas fueron recibidas con escepticismo sobre los logros de la IA, mientras que otras estuvieron marcadas por avances y avances significativos. No obstante, incluso en momentos en que un camino parecía cerrarse, surgieron nuevas oportunidades que permitieron a la IA seguir progresando y arrojando resultados fructíferos. Entre las aplicaciones destacadas de la IA, los sistemas expertos destacan como uno de los productos más destacados. Estos sistemas han desempeñado un papel crucial en el resurgimiento de la IA cuando necesitaba un impulso. De hecho, los sistemas expertos ahora son ampliamente reconocidos como productos típicos de IA.

El equipo de Feigenbaum se embarcó en un nuevo proyecto en la Universidad de Stanford de 1972 a 1980. Este sistema experto introdujo el uso de conocimientos imprecisos y la capacidad de explicar el proceso de razonamiento de la herramienta. Si bien Feigenbaum dirigió inicialmente el proyecto, Shortliffe y sus colaboradores lo completaron utilizando Lisp. La importancia de este sistema radica en demostrar la eficacia de su esquema de representación del conocimiento y sus técnicas de razonamiento, que influyeron en gran medida en el desarrollo de sistemas basados ​​en reglas tanto en el campo médico como en el no médico. Mycin, cuyo objetivo era diagnosticar enfermedades sanguíneas infecciosas, ejemplifica el impacto de este proyecto.

En lugar de centrarse en la toma de decisiones, Feigenbaum centró su atención en estudiar la memorización y creó un programa llamado EPAM (Elementary Perceiver and Memorizer). Una contribución significativa del trabajo de Feigenbaum en inteligencia artificial fue el desarrollo de "redes de discriminación", que luego pasaron a formar parte de la investigación de redes neuronales. A principios de la década de 1960, Feigenbaum trabajó en una aplicación relacionada con un espectrómetro de masas y se dio cuenta de la necesidad de una base de conocimientos para utilizar los programas.

En 1965, Feigenbaum y su colega Robert K. Lindsay desarrollaron Dendral, el primer sistema experto exitoso, que tenía la capacidad de deducir información sobre estructuras químicas basándose en el conocimiento de química de Feigenbaum. A pesar de las críticas de algunos investigadores que creían que la especialización de Dendral en química limitaba su utilidad, Feigenbaum no se inmutó y formuló "El principio del conocimiento", que enfatiza que el razonamiento es inútil sin conocimiento.

1.5 Los ambientes de desarrollo

En la década de 1980, los sistemas expertos experimentaron un gran éxito, lo que llevó al surgimiento de un nuevo desarrollo conocido como shells. Los shells son programas de software que sirven como interfaz para los usuarios. Los sistemas expertos constan de dos componentes principales: una base de conocimientos y un motor de inferencia. La base de conocimientos contiene información relacionada con un problema o fenómeno específico, codificada mediante diversas técnicas como reglas, predicados, redes semánticas y objetos.

El motor de inferencia, por otro lado, combina hechos y preguntas utilizando la base de conocimientos para generar resultados relevantes. En el contexto de los sistemas expertos, un shell es una herramienta diseñada para simplificar el proceso de desarrollo e implementación. Esencialmente, es un "sistema experto" con una base de conocimientos vacía pero equipado con las herramientas necesarias para poblar la base de conocimientos para una aplicación particular.

Los shells también proporcionan al ingeniero del conocimiento funcionalidades adicionales como mecanismos de representación del conocimiento, mecanismos de inferencia, componentes explicativos y, a veces, incluso una interfaz de usuario. Estos entornos de desarrollo han ganado popularidad porque permiten la creación de sistemas expertos eficientes sin requerir amplios conocimientos de programación. Esto ha convertido a los shells en una opción popular para desarrollar sistemas expertos en diversos dominios del conocimiento.

1.6 Inteligencia artificial, educación y tecnologías: ¿buenas o malas?

¿Se toman decisiones arbitrarias sobre nuestra identidad y nuestras vidas? ¿Crean violencia a través de un juego en red? ¿Mejoran la educación? ¿democratizan el conocimiento? ¿Quién tiene la verdad? ¿Dónde está el equilibrio? Encontrar respuestas a estas preguntas no es una tarea sencilla. La conclusión nunca es sencilla. Las tecnologías no pueden examinarse de forma aislada. Culpar a Internet únicamente por la difusión de información falsa o discursos de odio pasa por alto la sociedad en la que se genera, circula y comparte este contenido.

De manera similar, cuando se trata de Inteligencia Artificial, ¿deberíamos reevaluar nuestro sistema educativo? ¿Deberíamos adaptar nuestro enfoque de la educación frente a la Inteligencia Artificial? No se trata sólo del contenido en sí, sino también de cómo los individuos utilizan y comparten esa información. En el mundo interconectado de hoy, los fenómenos sociales están cada vez más entrelazados, y atribuir responsabilidad a un solo factor, actor o dimensión simplifica demasiado la cuestión y pasa por alto los intrincados contextos.

Durante décadas, e incluso hoy, existe una dicotomía en la percepción de las pantallas. Han sido vilipendiados como enemigos de la cultura y elogiados como un medio de democratización. Dependiendo de la perspectiva de cada uno, las pantallas pueden ser vistas como responsables de "la desaparición de la infancia" o como una solución al bajo rendimiento educativo, el aislamiento social y las brechas de comunicación dentro de las familias. A pesar de las divisiones ideológicas, ambas perspectivas tienen algo en común: son "mediocéntricas", es decir, ponen excesivo énfasis en los medios y la tecnología en el debate, atribuyéndoles un inmenso poder, ya sea para destruir o crear.

Lo mismo se aplica a la Inteligencia Artificial y su impacto en la educación. Es crucial considerar no sólo la tecnología en sí sino también cómo se utiliza y el contexto en el que opera. En nuestro mundo complejo e interconectado, culpar a un solo factor o dimensión simplifica demasiado la cuestión en cuestión. Durante décadas ha habido un debate en torno al papel de las pantallas en la sociedad. Ambos han sido denunciados como perjudiciales para la cultura y aclamados como una herramienta para la democratización.

Dependiendo de la perspectiva adoptada, se ha culpado a las pantallas de erradicar la infancia o se ha elogiado su capacidad para abordar los fracasos educativos, el aislamiento social y los desafíos de comunicación dentro de las familias. A pesar de sus diferentes ideologías, ambos puntos de vista comparten algo en común: son "mediocéntricos", lo que significa que ponen excesivo énfasis en los medios y la tecnología en la discusión, dotándolos de un poder significativo, ya sea para la destrucción o la construcción.

Aunque sostienen posiciones ideológicas diferentes, ambos enfoques comparten una característica común: son "mediocéntricos", lo que significa que colocan a los medios y las tecnologías al frente de la discusión y les atribuyen una cantidad significativa de influencia (ya sea con fines destructivos o constructivos).

La presencia de pantallas por sí sola no promueve el individualismo ni la sociabilidad. no obstaculizan el aprendizaje ni mejoran la calidad de la enseñanza, no son la causa de la desigualdad ni el catalizador de la democracia y la igualdad. La tecnología no nos aísla ni fomenta la participación. ¿Entonces, dónde vamos desde aquí? La clave está en luchar por dos objetivos simultáneamente:

Sin duda, las tecnologías tienen cierta responsabilidad en todos estos escenarios. Sin embargo, también debemos considerar a los ciudadanos que utilizan estas tecnologías y la urgente necesidad de que comprendan las implicaciones sociales, políticas, económicas y culturales que la tecnología e Internet tienen en sus vidas y comunidades. Es en este contexto donde la educación juega un papel crucial.

Para abordar los problemas actuales que surgen del uso de Internet, es crucial contar con una política pública integral y un sistema educativo que prepare a docentes y estudiantes para convertirse en ciudadanos digitales responsables. Es esencial que tanto profesores como estudiantes puedan identificar, comprender y responder eficazmente a los desafíos que presenta Internet. Deben ser conscientes de sus derechos y responsabilidades en el mundo digital y estar equipados con el conocimiento y las habilidades para defenderlos y hacerles valer cuando sea necesario. El objetivo es evitar situaciones en las que una sola foto o perfil en línea pueda tener un impacto perjudicial en el futuro de alguien, o en las que las decisiones se tomen mediante algoritmos o sistemas de inteligencia artificial sin intervención humana.

1.7 IA: significado

En nuestra vida personal, la IA se hace evidente cuando capturamos momentos a través de la fotografía. El algoritmo integrado en nuestros teléfonos inteligentes puede identificar y detectar rápidamente los rostros de las personas presentes en la imagen, lo que nos permite etiquetarlos cómodamente cuando compartimos las fotos en nuestros perfiles de redes sociales. Esto ejemplifica aún más el papel omnipresente de la inteligencia artificial en nuestras actividades diarias.

La influencia de la IA comienza desde el comienzo de nuestro día. Podemos indicarle a un altavoz inteligente que nos despierte a una hora determinada, y va más allá sugiriendo la vestimenta adecuada según el pronóstico del día. Además, la IA desempeña un papel importante en nuestra capacidad para comunicarnos de forma eficaz al proporcionar traducción automática de idiomas e incluso ayudarnos a rectificar nuestros errores ortográficos. Las instituciones bancarias se benefician enormemente de la inteligencia artificial, ya que ayuda a organizar y gestionar de manera eficiente grandes cantidades de datos. Además, los médicos confían en la IA para evaluar a los pacientes y evaluar sus posibles riesgos para la salud.

La inteligencia artificial se ha convertido sin problemas en una parte integral de nuestra vida cotidiana. Su presencia se puede observar en diversos escenarios como cuando una cámara en una carretera identifica eficientemente la matrícula de un auto, o cuando confiamos en la tecnología GPS para navegar y encontrar la ruta óptima. Incluso cuando hacemos una llamada telefónica y nos encontramos con un sistema automatizado que pretende ayudarnos a resolver un problema, la inteligencia artificial está en juego. Además, las plataformas de contenido aprovechan la IA para recomendar películas o canciones adecuadas según nuestras preferencias, y nuestros teléfonos móviles utilizan la IA para reconocer nuestras huellas dactilares o rostros únicos por motivos de seguridad.

Además, los avances en la tecnología de IA han llevado al desarrollo de máquinas capaces de realizar llamadas telefónicas para realizar reservas en restaurantes. Estas máquinas entablan conversaciones que se parecen mucho a las interacciones entre dos individuos, incluidas inflexiones de tono naturales, vacilaciones ocasionales e incluso un toque de informalidad. Sorprendentemente, las personas que contestan estas llamadas telefónicas a menudo no saben que se están comunicando con una máquina.

La pura maravilla de esta hazaña tecnológica es innegablemente cautivadora, enciende nuestra imaginación y nos impulsa a imaginar las vastas posibilidades que ofrece dicha tecnología. Los robots de IA desempeñan un papel crucial en la industria de la salud, ya que mejoran las capacidades físicas de los cirujanos y ayudan significativamente en las intervenciones quirúrgicas. Además, la implementación de sistemas de inteligencia artificial tiene el potencial de impulsar nuevos descubrimientos científicos y contribuir al crecimiento de la economía.

Una ventaja notable de la IA es su impresionante capacidad de memoria, que le permite manejar cálculos extensos y, en última instancia, mejorar la productividad en diversas funciones laborales. Un ejemplo convincente de esto se demostró en un estudio realizado por el prestigioso Instituto de Tecnología de Massachusetts (MIT), donde los investigadores pretendían evaluar el impacto de ChatGPT, un sistema de inteligencia artificial basado en lenguaje, en la productividad de la preparación de documentos. En este experimento, se seleccionaron 444 personas para completar una tarea de escritura en línea, la mitad de ellos utilizó el sistema de inteligencia artificial y la otra mitad no. Los hallazgos revelaron que aquellos que utilizaron ChatGPT exhibieron habilidades de escritura más rápidas y precisas en comparación con aquellos que no lo hicieron. En consecuencia, el estudio concluyó que la IA aumentó significativamente la productividad al reducir el tiempo necesario para completar las tareas y elevar la calidad general del trabajo.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Capítulo 2

Inteligencia artificial, aprendizaje y ética. ¿Cómo funciona?

Para que la inteligencia artificial sea capaz de realizar tareas similar a un ser humano, debe recopilar y almacenar datos para su futura clasificación y organización. Luego, la IA procesa estos datos para resolver tareas, tomar decisiones y producir resultados. El sistema de IA se alimenta esencialmente de información, que almacena, analiza, clasifica y organiza. Su base radica en los datos, ya que identifica patrones y probabilidades dentro de esos datos, los codifica, los procesa y los organiza para generar un modelo.

Este modelo está diseñado específicamente para tomar decisiones y brindar respuestas basadas en instrucciones específicas. Un excelente ejemplo de cómo funciona la IA lo demuestran los motores de búsqueda de Internet, que pueden predecir y completar palabras u oraciones a medida que escribimos. De manera similar, los sistemas de inteligencia artificial pueden evaluar si un cliente potencial será capaz de pagar un préstamo bancario antes de que se le conceda.

El mecanismo subyacente de la inteligencia artificial son los algoritmos, que son secuencias sistemáticas de pasos que proporcionan instrucciones lógicas para los cálculos, la resolución de problemas y la toma de decisiones. Los algoritmos sirven como un medio para lograr un resultado deseado. A modo de ejemplo, consideremos una receta de cocina, que puede verse como un algoritmo, ya que sus pasos tienen como objetivo resolver el problema de preparar una comida. Sin embargo, una receta por sí sola no puede hacer una sopa; requiere que una persona lea y ejecute los pasos.

No obstante, es factible crear una máquina de inteligencia artificial que incorpore este algoritmo y prepare la sopa automáticamente. Ejemplos de sistemas de inteligencia artificial incluyen GPS, traductores automáticos de idiomas y teléfonos móviles con reconocimiento de huellas dactilares, todos los cuales han sido alimentados con datos y organizados en algoritmos para realizar acciones específicas como sugerir la mejor ruta, traducir texto o desbloquear una pantalla.

Los algoritmos tienen varios propósitos, uno de los cuales es predecir comportamientos. Esto se evidencia en los algoritmos desarrollados por Netflix y Spotify, donde analizan las preferencias de los usuarios para sugerir películas, series o canciones de su interés. Asimismo, los sistemas de inteligencia artificial basados ​​en lenguaje se han vuelto lo suficientemente avanzados como para responder a nuestras consultas y generar contenido nuevo basado en la información en la que han sido entrenados. Estos sistemas se han integrado tanto en nuestra vida diaria que a menudo confiamos en ellos como recordatorios, orientación y toma de decisiones. Nos sorprenden las capacidades de la IA y, a menudo, idealizamos sus beneficios. Sin embargo, es importante reconocer los peligros potenciales de naturalizar la IA y los algoritmos sin analizar críticamente su diseño e impacto. Para ilustrar este punto, podemos compararlo con la historia de dos peces que estaban tan acostumbrados a su entorno acuático que nunca cuestionaron su existencia. De manera similar, nos hemos acostumbrado tanto a la IA en nuestras vidas que rara vez nos detenemos a considerar sus implicaciones. Por lo tanto, debemos dar un paso atrás y examinar críticamente cómo se diseñan e implementan la IA y los algoritmos.

Para comprender completamente el impacto y el funcionamiento de la inteligencia artificial, es crucial profundizar en los mecanismos explícitos que impulsan su proceso de toma de decisiones, particularmente cuando esas decisiones afectan directamente nuestras vidas. Es fundamental evitar caer en la trampa del tecnochovinismo, que supone que la tecnología siempre proporciona las soluciones que buscamos o necesitamos.

Si bien es innegable que la IA aporta numerosos beneficios a nuestra vida diaria, como avances en la atención sanitaria, el desarrollo de medicamentos que salvan vidas y posibles soluciones a problemas medioambientales, no debemos pasar por alto las dimensiones éticas de su funcionamiento y diseño. Es importante reconocer que existen límites a lo que debemos hacer con la tecnología y, de la misma manera, existen límites a lo que la tecnología debe hacer con sus usuarios. Nuestra prioridad siempre debe ser garantizar que los sistemas de IA se empleen de manera que sirvan a los mejores intereses de las personas, las sociedades y el medio ambiente. Es de destacar, que los enormes beneficios de la inteligencia artificial son de poca importancia si los cimientos sobre los que se asienta son inestables.

2.1 La discriminación y la desigualdad

En contraste con la imagen idealizada, existen crecientes preocupaciones y llamadas de atención en torno a la inteligencia artificial. Si bien el potencial de la IA en nuestra vida diaria es innegablemente fascinante, es importante reconocer que no todo es admirable. El diseño y funcionamiento de los sistemas de IA han generado señales de alerta y preocupaciones globales. Para comprender plenamente la naturaleza de estas preocupaciones, profundicemos en cómo funciona la IA.

Básicamente, la IA depende en gran medida de los datos. Almacena, organiza y clasifica estos datos y luego los utiliza para crear modelos, responder a instrucciones, tomar decisiones y producir resultados. Para ilustrar esto, consideremos un ejemplo simple de un sistema de inteligencia artificial diseñado para diferenciar entre manzanas y naranjas. Para entrenar el sistema, debemos proporcionarle un conjunto de datos que consta de varias imágenes de manzanas y naranjas. Sin embargo, si solo alimentamos al sistema con imágenes de manzanas rojas y no con manzanas verdes, es posible que el sistema de aprendizaje automático infiera que todas las manzanas son rojas. En consecuencia, es posible que no reconozca una manzana verde como manzana debido a su entrenamiento. Este ejemplo destaca el papel fundamental del conjunto de datos de entrenamiento en los sistemas de IA.

Un caso alarmante de 2014 que involucró a Amazon ejemplifica los peligros potenciales de los sistemas de inteligencia artificial. La empresa buscó automatizar el proceso de recomendación y contratación de personal mediante el desarrollo de un sistema de inteligencia artificial que seleccionaría a los cinco mejores candidatos para un puesto de trabajo entre un grupo de cien currículos. Sin embargo, surgió un problema importante cuando el sistema de inteligencia artificial diseñado por los programadores de Amazon mostró un sesgo contra las mujeres. No tuvo en cuenta los currículos de candidatas que habían asistido a universidades para mujeres e incluso marginó los currículos que incluían la palabra "mujer". Este incidente demuestra las graves repercusiones que pueden surgir de sistemas de IA defectuosos.

El sistema de IA responde al objetivo de diferenciar manzanas de naranjas en función de los datos con los que ha sido entrenado. En el caso del ejemplo antes mencionado, si se le alimentaron exclusivamente imágenes de manzanas rojas, nunca identificará manzanas verdes como manzanas. Si bien este ejemplo puede parecer relativamente inofensivo, sirve como recordatorio de los riesgos potenciales asociados con un diseño incorrecto de la IA. En casos más graves, los sistemas de IA que aplican una lógica defectuosa similar podrían generar problemas importantes.

El modelo exhibía un evidente sesgo contra las mujeres, ya que no recomendaba ningún plan de estudios para mujeres. Este problema surgió de los datos erróneos con los que se había entrenado el sistema de IA. A lo largo de diez años, la empresa había contratado predominantemente ingenieros varones, lo que dio lugar a que los modelos recibieran formación únicamente con planes de estudios masculinos. En consecuencia, la IA había aprendido a recomendar sólo la contratación de hombres. Dado que la información ingresada en el sistema se basó en los CV de los hombres, no sorprende que no reconociera los CV de las mujeres.

Sin embargo, Amazon encontró un problema mayor en el camino: un resultado claramente discriminatorio contra las mujeres. Vale la pena señalar que la falta de diversidad en la fuerza laboral de Amazon es anterior a la implementación del sistema inteligente, siendo la mayoría de los empleados hombres. Si bien, el sistema de IA perpetuó esta desigualdad y no dejó lugar para cambios futuros. Los diseñadores del sistema habían creado un modelo que mantenía y reforzaba la desigualdad en las prácticas de contratación. Las herramientas de contratación del futuro estaban siendo moldeadas por las prácticas discriminatorias del pasado y del presente. En consecuencia, el resultado fue una máquina de discriminación que se perpetuó haciéndose pasar por técnicamente neutral.

Lo anterior no es un incidente aislado, ya que ha habido otros casos en los que la IA ha producido resultados discriminatorios. Por ejemplo, el Wall Street Journal realizó un análisis que reveló precios diferenciales en Staples.com, donde a los clientes se les cobraban precios variables por una grapadora simple según el código postal que proporcionaban durante el registro. De manera similar, investigadores de la Universidad Northeastern descubrieron que a los clientes que navegaban por la tienda HomeDepot.com se les ofrecían precios diferentes dependiendo de si accedían al sitio web desde un dispositivo móvil o una computadora de escritorio. Estos ejemplos resaltan cómo los sistemas de IA pueden amplificar inadvertidamente las desigualdades sociales bajo el pretexto de la neutralidad.

Estos ejemplos sirven como evidencia clara de los sesgos que la inteligencia artificial puede perpetuar. Es fundamental abordar y rectificar estos sesgos para garantizar que los sistemas de IA sean justos y equitativos para todas las personas. Además, un algoritmo diseñado recientemente produjo resultados sorprendentes durante las pruebas. Al algoritmo se le dieron varias ecuaciones para resolver y respondió correctamente a ecuaciones como "El hombre es para un rey lo que las mujeres son para reina" y "París es para Francia lo que Tokio es para Japón". Sin embargo, el problema surgió con la ecuación "El hombre es programador informático lo que la mujer es para ama de casa".

La respuesta del algoritmo reveló un resultado discriminatorio, ya que no había sido entrenado con datos que incluyeran programadoras. Esta omisión pone de relieve cómo los sesgos dentro de los sistemas de IA pueden afectar negativamente la vida de las personas. Se sabe que los sistemas de inteligencia artificial exhiben importantes prejuicios raciales, como lo demuestran incidentes como el video viral de una máquina expendedora de jabón en 2017. En este video, la máquina dispensaba jabón constantemente cuando una persona blanca colocaba su mano debajo, pero fallaba al hacerlo una persona negra repitió la misma acción. Este comportamiento discriminatorio persistió incluso después de múltiples intentos, lo que indica que el sistema de inteligencia artificial detrás de la máquina fue diseñado con datos incompletos y erróneos, lo que dio lugar a resultados sesgados y racistas.

Los bancos utilizan algoritmos para permitir que los sistemas de inteligencia artificial hagan predicciones sobre las aprobaciones y rechazos de préstamos. De manera similar a la situación con Amazon y su herramienta de selección de currículum vitae, los bancos proporcionan a la IA datos e información de personas a las que se les han concedido préstamos anteriormente y luego solicitan al sistema que analice y clasifique esta información. El objetivo es generar un modelo que pueda ser utilizado para determinar la aprobación o rechazo de futuras solicitudes de crédito.

Desafortunadamente, en Estados Unidos surgieron problemas con este sistema de inteligencia artificial diseñado específicamente para bancos. Se descubrió que los datos suministrados a la IA se basaban predominantemente en personas que ya habían recibido préstamos del banco, la mayoría de los cuales eran blancos y pertenecían a la clase económica media. En consecuencia, cuando personas negras, indígenas y económicamente desfavorecidas solicitaron préstamos, continuaron siendo rechazados de manera desproporcionada. Esto se debió principalmente al hecho de que, históricamente, a muy pocas de estas personas se les habían concedido préstamos.

Los sistemas de reconocimiento facial también plantean riesgos de sesgo y discriminación.  Las agencias de seguridad, como la Administración de Seguridad del Transporte de Estados Unidos, desarrollaron programas como SPOT para monitorear las expresiones faciales de los viajeros después del 11 de septiembre, con el objetivo de identificar automáticamente a posibles terroristas. Sin embargo, este enfoque se basa en 94 criterios que supuestamente indican estrés, miedo o engaño. Desafortunadamente, las personas que están naturalmente estresadas, incómodas con los interrogatorios o que tienen experiencias negativas con las fuerzas del orden o el control fronterizo pueden verse injustamente en desventaja y recibir puntuaciones más altas.

Uno de los riesgos inherentes a los sistemas de reconocimiento facial es la escasez de datos disponibles para entrenarlos y su incapacidad para considerar factores contextuales. Simplemente capturan una instantánea del momento, sin tener en cuenta los matices de las situaciones individuales. El impacto de la IA en la perpetuación de la desigualdad es una cuestión compleja que a menudo resulta difícil de comprender plenamente.

Un desafío importante es que las personas a las que se les niegan préstamos, por ejemplo, tal vez nunca comprendan realmente por qué se rechazó su solicitud o se den cuenta de que la decisión fue tomada por un sistema de inteligencia artificial que opera con modelos y diseños sesgados. En 2023, Human Rights Watch, una destacada organización de derechos humanos, reveló que un algoritmo financiado por el Banco Mundial, conocido como Takaful, excluía a las familias elegibles en Jordania de recibir ayuda financiera. Takaful clasifica a las familias basándose en 57 indicadores socioeconómicos, pero los solicitantes argumentan que este cálculo no refleja con precisión sus circunstancias económicas y simplifica demasiado su situación, lo que conduce a resultados injustos e inexactos.

La dependencia del algoritmo de indicadores como el consumo de agua y electricidad, que no necesariamente se correlacionan con la pobreza, resalta aún más las fallas del sistema. Algunas familias incluso creían que tener un coche, independientemente de su antigüedad y necesidad de trabajo, afectaba negativamente a su clasificación. Human Rights Watch concluyó que la objetividad estadística del algoritmo enmascara una realidad más compleja, donde las luchas económicas y los esfuerzos por superarlas a menudo son invisibles para el algoritmo.

La inteligencia artificial (IA) tiene un impacto significativo en la vida cotidiana de las personas, y a menudo exacerba las desigualdades y perpetúa la inequidad. Su influencia se puede observar en diversos aspectos, como la determinación de la aprobación de visas, la evaluación de solicitudes de préstamos bancarios, la selección de candidatos para empleos, la concesión de becas para estudiantes y la asignación de subsidios sociales a personas de bajos ingresos.

Esta influencia es particularmente preocupante debido al hecho de que los sistemas de IA se basan en datos incompletos o erróneos, lo que puede dar lugar a resultados discriminatorios. El reconocimiento de estos sesgos ha llevado a 193 países de todo el mundo a firmar una Recomendación sobre la ética de la inteligencia artificial, preparada por la UNESCO en 2021. El documento acordado reconoce que, si bien las tecnologías de IA pueden aportar inmensos beneficios a la humanidad y a todos los países, también plantean importantes preocupaciones éticas. Una de esas preocupaciones es la posibilidad de incorporar y exacerbar sesgos, lo que conduciría a discriminación, desigualdad, brechas digitales, exclusión y plantearía amenazas a la diversidad cultural, social y biológica, además de crear divisiones sociales y económicas.

La inteligencia artificial (IA) tiene el potencial de reproducir y perpetuar las desigualdades existentes y está lejos de ser la entidad neutral y objetiva que a menudo se percibe. Los sistemas de IA no son simplemente herramientas matemáticas, sino más bien actores sociales que pueden verse influenciados por la discriminación y los prejuicios. A pesar de las afirmaciones de objetividad, los algoritmos pueden dar forma al significado y tomar decisiones controvertidas.

La eficacia de la IA depende en gran medida de la calidad y los sesgos presentes en los datos de entrenamiento a los que está expuesta. Las decisiones e intenciones de la empresa detrás del sistema de IA juegan un papel crucial en su diseño. Los datos de entrenamiento actúan como base para las predicciones de la IA y dan forma a su percepción del mundo. Sin embargo, las simplificaciones realizadas por los sistemas de aprendizaje automático pueden generar graves inconsistencias.

Esto se vuelve problemático cuando los sistemas de IA realizan clasificaciones y etiquetas discriminatorias que impactan directamente en la vida de las personas, reforzando prejuicios y estereotipos. Es evidente que la inteligencia artificial no es neutral. Los datos de entrenamiento sesgados pueden dar lugar a resultados erróneos y discriminatorios. Por ejemplo, si un algoritmo de IA asocia consistentemente ciertas características como género, clase social, edad o ideología con la inelegibilidad para préstamos bancarios, está incurriendo en discriminación.

Los estudios han demostrado que los algoritmos de IA también pueden influir en las oportunidades y carreras futuras al presentar selectivamente ofertas de trabajo a determinadas personas en función de su formación académica. Por lo tanto, es crucial examinar críticamente la dimensión ética de los algoritmos, incluida su construcción, métodos de clasificación y sesgos. Estas clasificaciones siempre conllevan valores y, cuando perpetúan la discriminación, distorsionan nuestra percepción de la realidad.

2.2 Las arbitrariedades en las decisiones

En septiembre del año 2016, un conocido escritor noruego llamado Tom Egeland causó revuelo en las redes sociales cuando compartió una famosa fotografía de la guerra de Vietnam en su página de Facebook. La imagen, tomada en 1972 por el reportero de la agencia de noticias AP Nick Ut, captura el desgarrador momento en el que se ve a una niña de 9 años corriendo desnuda, huyendo de un bombardeo con napalm llevado a cabo por el ejército de los Estados Unidos en su aldea. Esta poderosa fotografía, conocida como "La chica del napalm", ganó el prestigioso premio Pulitzer y se ha convertido en una de las imágenes más emblemáticas del siglo XX.

La intención de Egeland al compartir esta foto era arrojar luz sobre los horrores de la guerra, específicamente el sufrimiento inimaginable que soportan los niños inocentes. Sin embargo, el algoritmo de Facebook, diseñado para detectar y eliminar contenido inapropiado, marcó la imagen debido a la desnudez de la niña. En consecuencia, el perfil de Egeland fue suspendido, lo que provocó indignación en toda la sociedad nórdica. Muchos vieron las acciones de Facebook como una forma de censura, un intento de silenciar un importante documento histórico.

La protesta contra la decisión de Facebook creció aún más cuando Aftenposten, uno de los periódicos más leídos de Noruega, decidió solidarizarse con Egeland y publicó la misma fotografía en su propio perfil. A las pocas horas, el periódico recibió un correo electrónico de Facebook exigiendo la eliminación de la imagen. Esto llevó al editor jefe de Aftenposten, Espen Egil Hansen, a dirigirse directamente a Mark Zuckerberg en una carta abierta impresa en la portada del periódico. En su carta, Hansen expresó su negativa a cumplir con la solicitud de Facebook de eliminar la fotografía. Criticó al gigante de las redes sociales por limitar la libertad de expresión en lugar de apoyarla y condenó su enfoque autoritario.

Este movimiento audaz inspiró a otros en Noruega a seguir su ejemplo, compartiendo la imagen en sus propias plataformas, solo para encontrarse con las mismas demandas de Facebook para eliminarla. La empresa justificó sus acciones citando su política contra la publicación de contenido explícito. El incidente que involucró la fotografía de "La chica del napalm" y la respuesta de Facebook provocaron un importante debate sobre el poder y la responsabilidad de las plataformas de redes sociales a la hora de controlar el contenido compartido por sus usuarios. También planteó dudas sobre el equilibrio entre proteger a los usuarios de material dañino u ofensivo y preservar el derecho a expresar libremente acontecimientos históricos importantes.

El tema en cuestión recibió una atención significativa, lo que llevó incluso a la Primera Ministra noruega, Erna Solberg, a expresar su preocupación al respecto. Solberg recurrió a su cuenta de redes sociales para expresar su desacuerdo con la decisión de Facebook de censurar fotografías como la en cuestión. En su publicación, enfatizó el significado de la imagen, afirmando que ocupa un lugar en la historia universal ya que captura la desgarradora realidad de una joven que huye de los horrores de la guerra.

Para enfatizar aún más su punto, la Primera Ministra compartió la fotografía icónica junto con sus palabras. En sus comentarios finales, Solberg destacó cómo actos como la censura de Facebook sólo sirven para limitar la libertad de expresión. Sin embargo, tras una protesta pública masiva, la empresa finalmente rectificó su postura, revocando su decisión y restableciendo tanto las imágenes censuradas como las cuentas eliminadas de las personas que habían compartido la fotografía. Este incidente sirve como un claro y serio ejemplo de los peligros potenciales asociados con los algoritmos y los sistemas de inteligencia artificial. En lugar de ser neutrales, estos sistemas están diseñados con ciertos sesgos y sus decisiones pueden tener consecuencias de largo alcance, afectando incluso los fundamentos mismos de la democracia, como lo demuestra este caso particular.

Un incidente similar ocurrió en Instagram con un cartel promocional de la película "Madres paralelas" de Pedro Almodóvar. La película se centra en la historia de Janis y Ana, dos mujeres que se conocen en una habitación de un hospital donde están a punto de dar a luz. El cartel mostraba un pezón con una gota de leche, lo que Instagram consideró "contenido erótico o pornográfico". Sorprendentemente, Instagram eliminó todas las publicaciones que mostraban el cartel, incluidas las de su propio diseñador, Javier Jaén.

Jaén expresó su decepción y volvió a compartir la imagen, resaltando lo absurdo de la situación. Sostuvo que Instagram se equivocó al etiquetar su trabajo como peligroso y pornográfico, ya que simplemente representaba una imagen natural y universal asociada con el nacimiento. Instagram defendió su decisión afirmando que su tecnología no puede reconocer el contexto. Sin embargo, este argumento es insuficiente para justificar la prohibición, ya que el algoritmo debe entrenarse para comprender el contexto.

Finalmente, Instagram se disculpó y restableció las publicaciones, permitiendo que el cartel se compartiera en la plataforma. Sin embargo, la decisión inicial de Instagram, similar a la de Facebook con el escritor noruego, tuvo implicaciones más amplias. Planteaba un riesgo para la democracia y las libertades individuales, ya que restringía la difusión del arte y las ideas. Este incidente sirve como recordatorio del poder y la responsabilidad que tienen las plataformas de redes sociales a la hora de dar forma al discurso público y la necesidad de que logren un equilibrio entre regular el contenido y preservar la libertad de expresión.

En otro incidente, la periodista Carole Cadwalladr de The Guardian arrojó luz sobre los peligros potenciales de los algoritmos de los motores de búsqueda. En su artículo, relató un experimento en el que escribió "¿Sucedió el Hol...?" en el motor de búsqueda de Google. Para su sorpresa, Google completó automáticamente la frase con "¿Ocurrió el Holocausto?", lo que la llevó a una lista de páginas en línea. El primer enlace que encontró procedía de un sitio web neonazi llamado "Stormfront", que afirmaba que el Holocausto nunca ocurrió.

Este descubrimiento generó preocupaciones sobre la forma en que los motores de búsqueda priorizan y presentan la información. Destacó la necesidad de que los algoritmos sean más perspicaces y cautelosos para evitar la difusión de información errónea y discursos de odio. El experimento de Cadwalladr enfatizó las posibles consecuencias de depender únicamente de la tecnología sin considerar el contexto y las implicaciones de la información que se comparte. Sirve como recordatorio de que plataformas como Google deben asumir la responsabilidad de seleccionar contenido preciso y confiable para garantizar la difusión de información veraz.

Muchas personas tienden a confiar únicamente en el primer resultado de búsqueda que encuentran cuando utilizan un motor de búsqueda. A menudo no se atreven a explorar sitios web adicionales que podrían ofrecer diferentes perspectivas o contenidos para comparar. Este comportamiento surge de la creencia de que el resultado mejor clasificado tiene la mayor autoridad y experiencia en el tema determinado. Sin embargo, es importante reconocer que la primera lista a menudo la determinan quienes han pagado por una ubicación prioritaria, en lugar de ser un verdadero reflejo de credibilidad.

El algoritmo de Google, que determina la clasificación de los sitios web, está diseñado teniendo en cuenta sus propios intereses económicos y comerciales, que pueden no coincidir con los mejores intereses de los usuarios. Si bien Google afirma operar con neutralidad, su priorización de contenidos implica una toma de decisiones subjetiva. Esto resulta preocupante si se tiene en cuenta que la mayoría de los usuarios tienden a quedarse con el primer enlace que encuentran, lo que podría conducirles a fuentes poco fiables, como un movimiento neonazi. Semejante jerarquía basada en factores económicos plantea riesgos importantes. Las posibles consecuencias son evidentes cuando una persona acepta sin cuestionar la negación del Holocausto gracias al sistema de clasificación de Google. Google desempeña un papel en la configuración del mundo no sólo presentándolo sino también participando activamente en su creación. La falta de transparencia en cuanto a los métodos utilizados para clasificar los sitios web nos impide evaluar si Google realmente sirve a los intereses de los usuarios o si está sesgado a favor de sus propios objetivos comerciales. La empresa tiene la capacidad de ocultar contenido específico que considera indeseable para que lo vean los usuarios.

Al dar prioridad a determinados contenidos, ya no estamos tomando decisiones objetivas. Esto resulta preocupante si se tiene en cuenta que la mayoría de los usuarios tienden a quedarse con el primer vínculo que encuentran, incluso si conduce a un movimiento neonazi. La jerarquía y el sistema de clasificación empleados por Google podrían plantear riesgos graves si se prioriza la información sesgada o engañosa. Desafortunadamente, Google no revela los métodos detrás de sus decisiones y clasificaciones, lo que dificulta determinar si realmente está sirviendo a los intereses de los usuarios o simplemente promoviendo su propia agenda comercial. Esta falta de transparencia permite a Google ocultar contenido que considera no apto para que lo vean los usuarios.

Este problema se vuelve aún más problemático si se considera que este contenido oculto a menudo termina colocándose en la parte inferior de los resultados de búsqueda, donde la gente rara vez llega. La influencia de los sistemas de inteligencia artificial va más allá de los motores de búsqueda y se extiende a los navegadores y las redes sociales. Estos sistemas toman decisiones en nuestro nombre, dictando lo que podemos y no podemos compartir, así como lo que podemos y no podemos ver. Esto afecta significativamente nuestra percepción y comprensión del mundo, ya que estos sistemas dan forma a nuestra realidad al ofrecernos selecciones y jerarquías seleccionadas. Por ejemplo, ¿cómo determina el sistema de recomendación de Netflix qué películas o series sugerir? ¿Cómo prioriza Amazon determinados libros en nuestras búsquedas? ¿Por qué Facebook y Twitter destacan historias y noticias específicas en nuestros perfiles sobre otros? Estas son preguntas que es necesario responder para comprender plenamente el alcance de la influencia de la inteligencia artificial en nuestras vidas.

2.3 Las huellas digitales

La inteligencia artificial depende de los datos para funcionar, datos que incluyen la información que se comparte a diario en Internet. Los datos sirven como fuente de información y pueden verse como una huella digital única. Nuestras actividades en línea, como búsquedas en Internet, preferencias musicales y opciones de películas, así como nuestras interacciones en las redes sociales, revelan aspectos de nuestras vidas y la privacidad ya no está garantizada.

Internet se ha convertido en la plataforma de nuestra vida privada y ahora ocupa el dominio público. En la sociedad actual, el valor reside en la exhibición personal y el deseo de ser notado y reconocido. Internet ha creado una cultura que enfatiza la visibilidad y la conectividad constante. Este nuevo orden, impulsado por la tecnología, prioriza ser visto y compartir experiencias. Se ha convertido en una creencia común que si una experiencia no se comparte y no contribuye al intercambio global de información, pierde su significado.

La proliferación de pantallas permite a los individuos exhibirse y sirven como prueba de su existencia. El mantra del siglo XXI podría resumirse en "Muestro, luego existo". Cada acción realizada en Internet deja una huella digital, que abarca los sitios web visitados, los vídeos o fotografías vistos, creados y compartidos, los comentarios realizados, los amigos contactados, las búsquedas realizadas, los artículos leídos e incluso la música y las películas disfrutadas. Para muchos, la identidad digital es más reveladora que su personalidad en la vida real, ya que refleja sus verdaderos intereses, preocupaciones y motivaciones detrás de búsquedas específicas en Internet. Es importante señalar que esta huella digital es pública y accesible para cualquier persona, lo que hace que sea difícil borrarla u ocultarla. Tiene el potencial de persistir indefinidamente.

Nuestras huellas dactilares están meticulosamente registradas y documentadas, y las empresas tecnológicas actúan como observadoras y explotadoras de esta información. Fomentan y promueven esta visibilidad porque sus algoritmos y sistemas de inteligencia artificial prosperan con las huellas que dejamos en Internet. El famoso eslogan de YouTube, "grábate a ti mismo" o "transmítete a ti mismo", ejemplifica esta mentalidad.

A través de redes de sensores, cámaras de vigilancia y cookies de sitios web, las empresas de tecnología monitorean y conocen constantemente nuestros hábitos de conducción, preferencias de lectura, búsquedas en la web, pasatiempos, uso de medicamentos y varios otros aspectos de nuestras vidas. Por extraño que parezca, seguimos siendo en gran medida ajenos a cómo estas empresas utilizan este conocimiento para influir en nuestras decisiones diarias, así como en las que toman otras empresas.

Cuanto más confiamos en los motores de búsqueda y las plataformas de redes sociales para satisfacer nuestros deseos y necesidades, mayor poder e influencia tendrán estas entidades en nuestras vidas. Su verdadera fortaleza reside en su capacidad para incluir, excluir y clasificar información. Su lema parece ser "cuéntanoslo todo, no te contengas. Cuanto más reveles, mejor podremos ayudarte. ¡Y no te costará nada!". Sin embargo, esta noción no es más que un mito. Cada clic que hacemos en la web tiene un precio. De hecho, las huellas que dejamos en Internet son una fuente de ganancias económicas. Detrás de cada clic se esconde una empresa de tecnología armada con programas, algoritmos y sistemas de inteligencia artificial que calculan cómo utilizar y vender mejor esta información a las partes interesadas, ya sea para ofrecer productos, servicios o ideas.

Todo esto sucede incluso sin la autorización explícita del usuario. La mayoría de las personas desconocen cómo se utilizan sus huellas dactilares y cómo dan forma a sus perfiles e identidades digitales. Muy pocas personas se dan cuenta de que un simple "me gusta" en Facebook tiene el potencial de obstaculizar futuras oportunidades laborales. Las empresas tecnológicas diseñan sistemas de inteligencia artificial que, basándose en nuestros propios datos, pueden recomendar películas o decidir si nos contratan.

Facebook define nuestra esencia, Amazon determina nuestros deseos y Google moldea nuestros pensamientos. En última instancia, estas entidades dan forma a nuestras oportunidades. Las actividades que realizamos en Internet son meticulosamente estudiadas mediante algoritmos, lo que permite comprender mejor a los usuarios y ofrecer servicios, productos e ideas personalizados en función de sus identidades digitales. Por eso se suele decir que no existe Internet gratis. Siempre alguien corre con el coste, y en este caso es el propio usuario quien paga con el acceso a sus datos y vida privada a cambio de los servicios digitales supuestamente "gratuitos" que recibe y utiliza. Por lo tanto, la información se convierte en uno de los bienes más valiosos que ofrecen las personas cuando navegan en el ámbito en línea. Casi todos los usuarios cederán voluntariamente sus datos a cambio de estos servicios digitales "gratuitos".

En la era digital actual, las personas voluntariamente entregan su información privada a cambio de diversas formas de gratificación. Ya sea el deseo de mejorar el bienestar físico o de mantener una comunicación constante con sus seres queridos, las personas a menudo están dispuestas a pasar por alto los riesgos potenciales asociados con compartir información personal. La prevalencia de las plataformas de redes sociales ejemplifica aún más este fenómeno, ya que las personas divulgan voluntariamente detalles sensibles, como fotografías, ubicaciones e información personal, a cambio de validación y aprobación social en forma de me gusta y comentarios.

Esta tendencia se ve acentuada aún más por las asombrosas cifras de ventas de altavoces inteligentes, que alcanzaron un total mundial de 147 millones de unidades en 2019. Sin embargo, resulta preocupante que una parte importante de quienes compran estos dispositivos desconocen hasta qué punto sus conversaciones se están registrando y los propósitos para los cuales se utiliza esta información.

La recopilación de datos sobre el comportamiento y la identidad de las personas en Internet por parte de las redes sociales y los motores de búsqueda es un proceso continuo y significativo. El simple hecho de estar conectado a un dispositivo digital permite a estas plataformas recopilar información sobre los usuarios, incluidas sus preferencias, identidades y deseos. Nuestra presencia en línea no sólo nos otorga acceso a grandes cantidades de información, sino que también nos transforma en fuentes de datos.

Esta comprensión se ha enfatizado a través de la prevalencia de las redes sociales y las aplicaciones gratuitas, donde ha quedado claro que cuando algo se ofrece gratis, a menudo significa que somos nosotros los que estamos siendo explotados. A cambio de los servicios prestados por estas empresas, sin saberlo, contribuimos a sus beneficios prestándoles nuestra atención, que puede venderse a los anunciantes, así como nuestros datos personales, que alimentan sus algoritmos. Este mismo patrón se repite ahora con los robots de IA, aunque a mayor escala y con nuevas complejidades. A pesar de que muchos usuarios desconocen cómo las empresas tecnológicas utilizan su información personal, no pueden ignorar este mecanismo. Argumentar que a uno no le importa el derecho a la privacidad porque no tiene nada que ocultar es como decir que no le importa la libertad de expresión porque no tiene nada que decir.

Las empresas acumulan inmensas cantidades de conocimiento sobre nosotros, pero lamentablemente no es para nuestro beneficio. Mark Zuckerberg, el fundador de Facebook, alguna vez se jactó de que la plataforma eventualmente conocería cada libro, película y canción que una persona había consumido en su vida. Además, los modelos predictivos de Facebook sugerirían incluso qué bar visitar cuando una persona llega a una nueva ciudad. Básicamente, nuestra información personal se convierte en la principal fuente de ingresos para las empresas de tecnología, que a menudo venden estos datos a entidades públicas o privadas previa solicitud. Por ejemplo, el supermercado que apareció en mi pantalla con sus ofertas mientras leía el periódico probablemente pagó al buscador para acceder a mi perfil de usuario y consumidor. Es importante que todas las personas comprendan la información que las empresas de tecnología poseen sobre ellos, los motivos de su recopilación, el proceso de autorización y cómo se utiliza.

La medida en que las empresas de tecnología pueden recopilar conocimiento sobre nosotros es bastante significativa, particularmente a través de nuestras actividades y clics en línea. De hecho, pueden incluso predecir nuestros comportamientos con un alto grado de precisión. Por ejemplo, un estudio realizado en una red social que contó con casi 90.000 usuarios reveló que el algoritmo de la empresa era capaz de pronosticar las respuestas de las personas sin ningún error. Esto se logró analizando los "me gusta" que los usuarios dieron a varias páginas web, imágenes y videos a los que estuvieron expuestos. Sorprendentemente, el algoritmo de la red social superó incluso a los compañeros de trabajo en términos de predicciones de respuesta, requiriendo sólo 10 "me gusta" para superar su precisión.

Se necesitaron 70 me gusta para superar las predicciones de los amigos, 150 para superar a los familiares y 300 para superar a los cónyuges. Otro ejemplo es Netflix, que almacena grandes cantidades de información sobre millones de usuarios. Esto incluye sus géneros cinematográficos preferidos, las series que ven, la hora del día que eligen ver, sus hábitos de visualización (como adelantar o rebobinar), el tiempo que les lleva terminar un programa y los dispositivos que utilizan para visita. Todos estos datos son recopilados, almacenados y utilizados por la plataforma. Hoy en día, el acceso a big data es muy valorado como fuente de información fiable. De hecho, la economía se basa en la recopilación de datos sobre los deseos de las personas para poder tomar decisiones informadas basadas en esta información.

Es posible que otras personas que accedan al mismo periódico en línea no encuentren las ofertas promocionales de mi supermercado local en la parte inferior de su pantalla, especialmente si residen lejos. En cambio, estarán expuestos a diferentes anuncios que se adaptan a sus preferencias en función de sus búsquedas en Google o la información que han compartido en sus plataformas de redes sociales. Por ejemplo, si han recopilado datos sobre Río de Janeiro leyendo noticias o realizando búsquedas en línea, sin duda recibirán anuncios relacionados con agencias de turismo, vuelos, hoteles y excursiones en esta ciudad brasileña. Este hecho es el resultado de un mecanismo crucial empleado por algoritmos y sistemas de inteligencia artificial que analizan los datos del usuario, conocido como personalización.

La personalización en los resultados de búsqueda es vital para que las empresas garanticen su éxito financiero. Cuanto más detallado sea el perfil de un usuario, más efectivo será el algoritmo y el sistema de inteligencia artificial y, en consecuencia, más rentable será la venta del perfil de ese usuario a aquellos interesados ​​en dirigirse a ese tipo de cliente en particular. Un fabricante o minorista de dulces, por ejemplo, estaría dispuesto a pagar un precio más alto por una lista de personas que han buscado el término "chocolate" en Google. Esto es precisamente lo que la IA y el algoritmo se esfuerzan por crear y vender. Sin embargo, la personalización generada por algoritmos y sistemas de inteligencia artificial puede generar riesgos y problemas sociales importantes, como la formación de burbujas digitales.

Una burbuja digital se refiere al ámbito de mensajes y contenidos personalizados que los usuarios reciben mientras navegan por Internet, que atiende exclusivamente a sus intereses específicos. En consecuencia, los individuos sólo encuentran contenido que se alinea con sus propias perspectivas, preferencias y creencias, mientras que el contenido que contradice sus puntos de vista se filtra. Este fenómeno aísla efectivamente a los usuarios dentro de sus propias burbujas, donde solo interactúan con personas de ideas afines que comparten gustos e intereses similares. Con el tiempo, esto puede resultar en un sesgo de confirmación, que es la tendencia de las personas a buscar y seleccionar información en Internet que confirme sus creencias existentes, reforzando así sus propias nociones preconcebidas.

Las burbujas digitales crean barreras que impiden el libre flujo de ideas y obstaculizan el intercambio de conocimientos entre personas que tienen perspectivas diferentes. Estas burbujas segregan efectivamente a las personas con puntos de vista contrastantes, y solo permiten que aquellos que comparten las mismas ideas e inquietudes interactúen dentro de ellas. En consecuencia, los usuarios dentro de estas burbujas tienden a ignorar el contenido que no se alinea con sus propias creencias, lo que lleva a una reducción de su comprensión y capacidad de toma de decisiones.

Dentro de estas burbujas aisladas, los individuos sólo están expuestos a una gama limitada de noticias e información que atiende a sus intereses específicos, empobreciendo así su conocimiento de cuestiones sociales más amplias. En una democracia participativa, es crucial que los ciudadanos se mantengan informados sobre los problemas sociales, incluso si inicialmente no han expresado interés en ellos. Cuestiones como la desnutrición, la pobreza, el analfabetismo, la inmigración y la situación de los discapacitados afectan a toda la sociedad y requieren la atención de todos los individuos.

Los algoritmos no deberían tener la autoridad para excluir temas tan importantes simplemente porque un individuo no mostró interés en ellos. En un mundo complejo, todos los aspectos de la vida están interconectados y tienen un impacto en nuestras vidas, incluso aquellas cuestiones que pueden no ser inmediatamente relevantes para nuestras preocupaciones personales. Por lo tanto, es esencial para la democracia fomentar individuos que sean capaces de pensar más allá de sus propios intereses.

Desafortunadamente, la forma en que funcionan las fuentes de información en las redes sociales, como Facebook o Twitter, perpetúa este problema. Las noticias e información que las personas encuentran en sus perfiles se adaptan a sus intereses, en función de sus actividades en línea o de las preferencias de sus amigos y contactos. Como resultado, los individuos perciben y construyen una realidad sesgada que está influenciada únicamente por las preocupaciones de sus conexiones en las redes sociales o por lo que los algoritmos han determinado que puede interesarles en función de sus búsquedas anteriores. Estos algoritmos, diseñados para mantener a los individuos dentro de sus propias burbujas digitales, representan una grave amenaza para la sociedad, ya que socavan los principios de pluralismo, diversidad y coexistencia de diferentes puntos de vista que son fundamentales para una democracia saludable.

Según la UNESCO, la falta de transparencia en las herramientas de IA conduce a una falta de comprensión de las decisiones que toma por parte de los individuos. Es importante señalar que la inteligencia artificial no es imparcial y puede producir resultados discriminatorios o sesgados. Esto resalta la necesidad de transparencia y comprensibilidad en cómo operan los algoritmos y los datos con los que se entrenan. Si bien las preocupaciones éticas no deberían impedir el progreso y la innovación, deberían fomentar oportunidades para una investigación e innovación realizadas de forma ética que alineen las tecnologías de IA con los derechos humanos, las libertades fundamentales, los valores, los principios y las consideraciones morales y éticas.

Es crucial que el desarrollo y la utilización de estas tecnologías estén guiados por una investigación científica sólida y un análisis y evaluación éticos. En la actualidad, nadie puede ignorar la inteligencia artificial. Nadie puede alegar indiferencia o desinterés porque no lo utiliza personalmente. La IA ya se ha convertido en una parte integral de nuestras vidas y desempeña un papel importante en la toma de numerosas decisiones.

 

Capitulo 3

¿Qué hace la inteligencia artificial?

Los sistemas de lenguaje de inteligencia artificial han provocado una controversia global y provocado un intenso debate. Un área de particular interés es la capacidad innovadora de la IA para generar historias, que inicialmente parece muy atractiva. De hecho, este fenómeno ya está ocurriendo en todo el mundo. Un hombre llamado Tim Boucher, de Estados Unidos, por ejemplo, ha afirmado sorprendentemente haber escrito casi 100 libros utilizando inteligencia artificial. Estos libros tienen un precio de entre 2 y 5 dólares y le llevó entre 6 y 8 horas, y algunos incluso se produjeron en tan solo 3 horas. Hasta 2023, Boucher afirma haber escrito la asombrosa cifra de 97 libros con la ayuda de la IA. Sin embargo, especialistas de todo el mundo han comenzado a plantear dudas y plantear preguntas que invitan a la reflexión. Yuval Harari plantea la cuestión de si podemos imaginar un mundo en el que la IA cree textos, canciones e incluso series de televisión. Las implicaciones de tal realidad están más allá de nuestra comprensión. Las consecuencias de que la inteligencia artificial domine y dé forma a la cultura son inciertas y potencialmente profundas.

El músico británico Nick Cave expresó su indignación cuando un sistema de lenguaje de inteligencia artificial, ChatGPT, creó una canción que le pareció deficiente. Cave sostiene que las canciones nacen del sufrimiento humano y de las intrincadas luchas internas que conlleva la creación artística. "Hasta donde yo sé", concluye Cave, "los algoritmos no sienten ni sufren". Los periodistas también señalan que la IA, que no se ve afectada por las enfermedades, no está interesada en los aumentos salariales y no se preocupa por las vacaciones, puede producir artículos que a los humanos les llevaría horas escribir en apenas unos segundos.

Estos artículos son precisos pero carecen de la calidez y la picardía que aporta la creatividad humana. En 2023, los guionistas de Hollywood iniciaron la primera huelga en respuesta a la amenaza percibida de que la IA podría reemplazar su trabajo. El sindicato, que representa a 11.500 guionistas de la industria audiovisual norteamericana, afirma firmemente que el arte no puede ser creado por una máquina. El cineasta y guionista Eric Heisserer afirma que el corazón y el alma de la narración se perderían si la IA tomara el control. Heisserer protesta además contra el uso de guiones escritos por miembros del sindicato para entrenar sistemas de inteligencia artificial. Entre los guionistas entrevistados, sólo unos pocos pueden imaginar la idea de que la IA realice su trabajo de manera efectiva. Sin embargo, el mero hecho de que los estudios y las plataformas estén dispuestos a explorar esta posibilidad les resulta angustioso. Temen que los ejecutivos comprometan la creatividad en aras de la rentabilidad.

A pesar de que la IA es capaz de realizar el 99% de un trabajo de manera competente, eso no implica que pueda ejecutarlo sin problemas. Hay ciertos casos en los que ese 1% restante puede marcar una diferencia significativa, como distinguir entre simplemente atender a un cliente vendiéndole empanadas (una tarea que un robot puede realizar fácilmente) y brindar compañía a alguien que puede sentirse solo.

Es importante reconocer que la IA tiene sus limitaciones. Los sistemas lingüísticos para la inteligencia artificial actúan como agentes conversacionales, dialogando, intercambiando ideas, generando textos, ofreciendo consejos, sugiriendo opciones, tomando decisiones e influyendo en nuestro comportamiento. Sin embargo, ¿pueden estas capacidades tener un impacto en la democracia? Esta es una pregunta que los expertos en la materia han intentado responder. Sostienen que podría representar una amenaza para las democracias, ya que la democracia se basa fundamentalmente en la conversación pública. Esencialmente, la democracia prospera cuando las personas conversan entre sí. Si la IA dominara estas conversaciones, la democracia tal como la conocemos esencialmente dejaría de existir.

¿Qué se le pide a la industria que crea, diseña y promueve la inteligencia artificial? La organización AI Now y la UNESCO han presentado algunas recomendaciones en sus informes:

Está claro que la inteligencia artificial desempeña un papel importante en la toma de decisiones, lo que genera preocupaciones tanto positivas como éticas. El rápido ritmo del avance de la IA hace que sea difícil comprender plenamente su significado e implicaciones. La educación es crucial para abordar este problema, ya que puede ayudarnos a comprender y exigir una mayor transparencia en la IA. Específicamente, la educación puede explorar cómo la IA afecta a las escuelas, los desafíos que plantea a la enseñanza y si se necesita un nuevo enfoque de la educación en esta era tecnológica. En última instancia, el objetivo es crear un sistema de IA más justo y equitativo, y la educación brinda la mejor oportunidad para la reflexión y el análisis.

3.1 La educación

La IA ha creado un nuevo problema para quienes necesitan contratar futuros empleados. Los departamentos de recursos humanos ya saben que los candidatos confían en la inteligencia artificial para escribir la carta tradicional. Está claro que a la hora de contratar a un candidato, los directivos ya no pueden guiarse por la redacción del texto. Los métodos de evaluación tradicionales ya no son tan fiables para revisar las solicitudes. A medida que más y más solicitantes utilizan la IA para escribir cartas de presentación, ¿qué valor puede tener para las empresas seguir exigiendo este requisito? Si alguien puede mejorar artificialmente el correo electrónico que envía a un gerente de contratación, el correo electrónico deja de tener sentido. Esta es exactamente la innovación a la que Google dio vida desde Gmail. Esta aplicación incluye la herramienta Help Me Write para generar correos electrónicos únicamente a partir de la descripción del usuario. No es la IA lo que las empresas han tenido que cambiar, sino los métodos utilizados para evaluar a los candidatos.

Entonces, ¿qué hicieron los responsables de contratación? Comenzaron a pensar en qué cambios deberían hacer en la forma en que evalúan las solicitudes. Los procesos de contratación tuvieron que cambiar. El objetivo era encontrar nuevas formas de evaluación que exigieran a los candidatos hacer lo que la inteligencia artificial no podía hacer. Lo cual era específico y específico de las personas. Llegaron a una conclusión. La IA es capaz de almacenar, organizar, procesar, ordenar y escribir datos, pero carece de pensamiento crítico, carece de curiosidad e imaginación y no es una fuente de creatividad libre. La inteligencia artificial sólo funciona con el contenido con el que han sido alimentados y capacitados quienes la diseñan.

Por lo tanto, los reclutadores decidieron crear evaluaciones que requirieran reflexión, razonamiento, imaginación y creatividad por parte del candidato y reflejaran su curiosidad e inquietudes. Los empleadores reservan la escritura para analizar el capital cultural y las competencias basadas en el pensamiento crítico y creativo de los futuros empleados. Una ingeniera dijo lo siguiente sobre el tipo de preguntas que la empresa a la que postulaba como empleada le hizo durante el proceso de contratación: “-En mi primera entrevista como candidata, me sorprendieron con una pregunta que no esperaba. Me preguntaron cuántas pelotas de tenis caben en un autobús urbano. También querían saber cómo consiguió ese número. Rápidamente me di cuenta de que no les importaba el número final de bolas, que por otro lado quizás puedas encontrar en Internet. Lo que la empresa realmente quería saber era mi capacidad de razonar para llegar al número final (incluso si el número no era correcto)”.

En un intento por fomentar el pensamiento crítico y las habilidades de escritura, una educadora asignó a sus alumnos la tarea de crear una síntesis basada en un texto periodístico que ella les había proporcionado. Sin embargo, cuando empezó a calificar los trabajos, notó una tendencia desalentadora: muchos estudiantes habían presentado resúmenes idénticos. Pronto se hizo evidente que estos resúmenes uniformes eran el resultado de la utilización de nuevos sistemas de inteligencia artificial.

Esta comprensión dejó a la maestra sintiéndose desanimada, ya que su intención era evaluar las habilidades de escritura de sus alumnos, pero el ejercicio aparentemente se había vuelto inútil. A la luz de la situación la maestra, resulta evidente que la transformación provocada por la inteligencia artificial no debe limitarse únicamente al proceso de contratación; también debería impulsar un debate más amplio sobre el impacto que puede tener en la educación.

A medida que la sociedad continúa adoptando la IA, los educadores, los formuladores de políticas y las partes interesadas deben colaborar para establecer pautas y mejores prácticas que garanticen la integración efectiva y ética de los sistemas de IA en las aulas. Sólo entonces podremos realmente aprovechar el poder de la inteligencia artificial para mejorar la educación preservando al mismo tiempo sus principios fundamentales.

La llegada de la inteligencia artificial ha revolucionado el proceso de contratación, pero su impacto en la educación aún está en debate. Marta, una dedicada profesora de idiomas en una escuela de secundaria, se pregunta si el sistema educativo también debería sufrir una transformación. Este dilema llega a un punto crítico durante una reunión de profesores, donde Marta comparte su frustrante experiencia con sus alumnos ese día. A medida que la tecnología continúa avanzando, los educadores deben enfrentar el desafío de encontrar un equilibrio entre aprovechar la IA para obtener sus beneficios y al mismo tiempo preservar los aspectos fundamentales de la educación.

Este equilibrio es crucial para garantizar que los estudiantes no se limiten a regurgitar información generada por los sistemas de inteligencia artificial, sino que participen activamente en el proceso de aprendizaje. Además, nos insta a reflexionar sobre el propósito de la educación misma: ¿se trata únicamente de adquirir conocimientos o también debería cultivar el pensamiento crítico, la creatividad y las habilidades para resolver problemas? Si bien algunos pueden argumentar que los sistemas de inteligencia artificial pueden agilizar los procesos educativos, como calificar trabajos, la experiencia la maestra sirve como advertencia. Subraya la importancia de una evaluación auténtica y el valor de la evaluación humana para fomentar el crecimiento y el desarrollo de los estudiantes. Después de todo, la educación no consiste sólo en producir resultados uniformes, sino también en fomentar los talentos y habilidades individuales. Este incidente plantea preguntas importantes sobre el papel de la inteligencia artificial en la educación. Si bien sin duda ha aportado numerosos avances a diversos sectores, su integración en las aulas debe considerarse cuidadosamente. Esta experiencia destaca los posibles inconvenientes de depender demasiado de los sistemas de inteligencia artificial en la educación y la necesidad de que los educadores mantengan la integridad de sus métodos de enseñanza.

Un dedicado y conocedor profesor de Historia, se encontró en una situación que invitaba a la reflexión durante una reunión. A medida que se desarrolló la discusión, compartió valientemente una experiencia que lo había dejado a la vez desconcertado e intrigado. En su genuina búsqueda de fomentar habilidades de pensamiento crítico entre sus estudiantes, el profesor les había asignado la tarea de profundizar en los intrincados detalles de la Segunda Guerra Mundial. Sin embargo, lo que recibió a cambio fue una multitud de encargos que, aunque impecablemente precisos y descriptivos, carecían de la profundidad de conocimiento y originalidad que esperaba. Perplejo por la sorprendente similitud de estas tareas, el profesor no pudo evitar preguntarse si sus estudiantes habían recurrido a la utilización de sistemas de lenguaje de inteligencia artificial de vanguardia que se han vuelto cada vez más frecuentes en el panorama tecnológico actual. A pesar de sus mejores esfuerzos por elaborar una tarea significativa y estimulante, el profesor no pudo quitarse de encima la sensación de que sus instrucciones de alguna manera habían perdido el propósito previsto en la traducción, dejándolo con una sensación de desilusión.

La maestra y el profesor comparten la misma opinión y es evidente que los dos ejercicios que propusieron no cumplieron con los objetivos previstos. La razón detrás de esto es que los sistemas de lenguaje de IA destacan en la realización de este tipo de tareas sin problemas. Estos sistemas han demostrado ser herramientas increíblemente útiles para resumir información, componer artículos escritos y responder diversas actividades basadas en texto. Curiosamente, fueron los estudiantes quienes descubrieron las capacidades de la IA antes que sus propios profesores y rápidamente recurrieron a esta tecnología para superar los desafíos de sus tareas. El impacto de los sistemas de inteligencia artificial basados ​​en el lenguaje no se limita a una región específica, ya que han logrado avances significativos en todo el mundo al aprobar con éxito exámenes finales de grado, ser admitidos en universidades prestigiosas e incluso realizar complejas tesis doctorales con gran éxito.

Las experiencias anteriores revela profundos fallos y deficiencias del sistema educativo en lugar de atribuirlos únicamente a las limitaciones de la inteligencia artificial. Se puede establecer un paralelo con los métodos de contratación en el mundo empresarial, donde el obstáculo no era la IA en sí, sino los estrictos criterios impuestos por las empresas, que requerían una renovación para asegurar el empleo. De manera similar, el problema no radica en los sistemas de inteligencia artificial en la educación, sino en las instrucciones y orientación que se brindan a los estudiantes. Para abordar esto, existe una necesidad apremiante de que las políticas públicas, las escuelas y los docentes exploren enfoques innovadores respecto de las tareas escolares, los exámenes y las metodologías de enseñanza en general. Esto reflejaría la evolución observada en el proceso de contratación, donde se volvió imperativa una reevaluación de las prácticas tradicionales.

Si seguimos priorizando la memorización, la copia y la imitación en educación, no debería sorprender que la inteligencia artificial destaque en tareas como aprobar exámenes de acceso a la universidad o seguir impecablemente instrucciones escolares. Esto pone de relieve la urgente necesidad de que la educación reevalúe sus objetivos, prioridades, métodos de enseñanza y técnicas de evaluación. Un profesor estadounidense innovador intentó un enfoque diferente incorporando sistemas de inteligencia artificial basados ​​en el lenguaje en su clase de Historia. Asignó a sus alumnos que utilizaran tecnología de inteligencia artificial para escribir un informe sobre la historia de la impresión. Sin embargo, los estudiantes pronto descubrieron que el sistema inteligente carecía de información sobre los orígenes de la imprenta en Europa o China. El profesor aprovechó este inconveniente de la IA para iniciar un debate sobre las limitaciones de depender únicamente de la inteligencia artificial para obtener datos precisos y completos. Enfatizó la importancia de no aceptar ciegamente los resultados o respuestas que brinda una aplicación, ya que pueden ser incompletos o incluso falsos. Además, esta clase brindó la oportunidad de explorar cómo los prejuicios y omisiones dentro de los sistemas de IA pueden reforzar prejuicios y estereotipos.

A la luz de estos avances, los métodos tradicionales para evaluar las habilidades de escritura de los estudiantes, como resumir instrucciones o comentar libros o textos periodísticos, ya no serán efectivos. Será cada vez más difícil discernir si un texto fue escrito por un estudiante o por un sistema de inteligencia artificial. Por lo tanto, como lo demuestra la historia de las clases de imprenta, los educadores deben idear estrategias de evaluación alternativas que puedan contrarrestar este dilema.

Para mejorar la comprensión de los estudiantes sobre la inteligencia artificial (IA), se han propuesto varios proyectos escolares que implican la evaluación de los sistemas de IA por parte de los propios estudiantes. Estos proyectos tienen como objetivo analizar cómo funciona la IA, identificar posibles sesgos u omisiones en sus respuestas y explorar el diseño de los algoritmos utilizados.

En un proyecto en particular, un maestro indicó a sus alumnos que utilizaran ChatGPT, un sistema de inteligencia artificial basado en lenguaje, para recopilar argumentos que respaldaran el establecimiento de una fábrica en una zona residencial. Posteriormente, a los estudiantes se les asignó la tarea de evaluar la efectividad de los argumentos proporcionados por el sistema de inteligencia artificial y determinar si estos argumentos podían influir de manera convincente en los residentes del vecindario. Para concluir la tarea, los estudiantes debían presentar un ensayo que incluyera sus críticas al sistema de IA, así como sus opiniones sobre los argumentos propuestos.

Al alentar a los estudiantes a evaluar las respuestas y los resultados de los sistemas de IA, la actividad de este maestro no solo permitió un análisis del diseño y la función del sistema, sino que también enfatizó la importancia de comprender sus limitaciones. Es fundamental señalar que estos proyectos no pretenden librar una guerra contra la IA ni restringir el uso de nuevos sistemas lingüísticos. Más bien, resaltan la necesidad de asumir la responsabilidad de nuestras propias deficiencias en lugar de intentar frenar los avances tecnológicos, ya que es similar a tratar de bloquear el sol con nuestras propias manos.

El desafío no radica en prohibir la IA, sino en superar sus capacidades. Debemos analizar y evaluar exhaustivamente la IA, centrándonos también en lo que no puede hacer. Las tareas tradicionales, como solicitar resúmenes o simples comentarios de los estudiantes, quedarán obsoletas, ya que la IA puede completar estas tareas de manera fácil y precisa. Sin embargo, esto no significa que en la educación se deban descartar contenidos específicos, ya que es importante tener una cierta cantidad de conocimientos. Si bien, conocer únicamente la fecha de la Segunda Guerra Mundial o los países involucrados no debería ser el único objetivo de las tareas escolares. Si bien la información es crucial para comprender los acontecimientos históricos y el presente, no debería ser el destino final.

La educación debe ir más allá de la mera información y fomentar el pensamiento crítico sobre las implicaciones, consecuencias y cambios resultantes de estos acontecimientos. Si bien la IA puede responder preguntas sobre cuándo, dónde y quién, la educación profundiza en el por qué, lo que significa y los efectos resultantes. En consecuencia, es necesario reconsiderar cómo evaluamos a los estudiantes. La necesidad de transformar los formatos de exámenes actuales no se debe únicamente a la aparición de la IA; simplemente resalta la fecha de vencimiento de los exámenes tradicionales.

Los profesores, como Rebeca Wang, especialista en IA en Estados Unidos, han tenido que adaptar sus métodos de calificación para adaptarse al uso de plataformas y aplicaciones de IA por parte de los estudiantes. Esta adaptación ha requerido a menudo ajustes rápidos en medio de cursos en curso. No se trata de que los robots se hagan cargo de nuestros trabajos, sino de que nos hemos acostumbrado a realizar tareas que pueden realizar los robots durante los últimos 5.000 años. Lo mismo se aplica a la educación, donde debemos evitar que los estudiantes realicen trabajos robóticos. Debemos fomentar el pensamiento crítico, la imaginación, la curiosidad y la creatividad, todo lo cual es distinto de la inteligencia artificial.

Como se mencionó anteriormente, si la educación continua priorizando la memoria y las preguntas específicas, la inteligencia artificial seguirá destacando en la resolución de exámenes y tareas. Esta es la realidad actual, donde los estudiantes simplemente copian la primera respuesta que encuentran en un motor de búsqueda. Sin embargo, la educación debe ir más allá de los enfoques tradicionales y enfatizar el pensamiento crítico y la creatividad, tanto en el ámbito académico como en el mundo profesional.

Una investigación realizada en 18 países de diferentes continentes ha revelado estadísticas alarmantes. En casi 20 países participantes, sólo un mero 2 por ciento de los estudiantes de secundaria posee la capacidad de diferenciar la relevancia de la información que se encuentra en Internet. Incluso Corea del Sur, que tiene el mayor porcentaje de adolescentes con esta capacidad reflexiva, sólo alcanza el 5 por ciento. Esta competencia es fundamental para una sociedad basada en el conocimiento, pero falta gravemente entre los estudiantes.

Una encuesta realizada en España entre estudiantes de secundaria encontró que más de la mitad de los adolescentes admitieron no saber cómo buscar información de manera eficiente en Google. También tuvieron dificultades para identificar información confiable en la web. De manera similar, una investigación realizada por la Universidad de Stanford entre 7.800 estudiantes de secundaria en los Estados Unidos reveló que un asombroso 82 por ciento de los adolescentes no pueden distinguir entre contenido informativo y contenido patrocinado. No perciben ninguna diferencia entre una noticia periodística y un artículo patrocinado por una empresa escrito por el presidente del banco. La investigación concluye que los estudiantes de secundaria estadounidenses carecen de las habilidades para diferenciar fuentes en Internet, lo que les dificulta discernir entre anuncios, artículos patrocinados y noticias mientras navegan por la web.

En Argentina, un estudio en el que participaron 2.000 adolescentes de todo el país concluyó que sólo 2 de cada 10 estudiantes comparan diferentes páginas web para determinar su confiabilidad. Sólo el 3 por ciento elige un sitio web porque pertenece a una institución reconocida. Es decir, apenas un 5 por ciento analiza el origen de la información, ya sea comparándola con otras páginas web o verificando la existencia de su autor. Para más del 90 por ciento de los estudiantes, los criterios de credibilidad son extremadamente deficientes. Confían en las fuentes basándose en factores como familiaridad, utilidad, contenido bien redactado, estadísticas o simplemente porque aparece primero en Google. Sorprendentemente, 2 de cada 10 adolescentes incluso admiten que no están seguros de poder confiar en una fuente, pero aun así la utilizan. Así, el 20 por ciento de los estudiantes utiliza sitios web y su contenido sin siquiera considerar la autoridad o confiabilidad de la información proporcionada.

Los argumentos son igualmente limitados cuando tienen que explicar por qué no confiarían en determinada información. En sus propias palabras dicen: “porque el texto tiene muchas faltas de ortografía”, “porque detecto un error grave en lo que dice”, “porque no argumenta bien” o “porque hay muchas opiniones”. Finalmente, cuando se les pregunta qué información se debe incluir para que lo crean, responden con definiciones también limitadas y difíciles de justificar. Explican que “debe estar bien redactado”, “que tenga buenos argumentos”, “que contenga mucha información” o “que cuando lo escribas la pregunta responda exactamente a lo que buscas”.

Los adolescentes de todo el mundo se enfrentan a importantes desafíos a la hora de diferenciar información relevante y fiable en Internet. Solo un pequeño número de ellos posee la capacidad de establecer criterios para determinar la confiabilidad, mientras que la mayoría lucha por articular razones válidas para considerar creíble cierta información. Hay argumentos que sugieren que los jóvenes siempre han tenido limitaciones a la hora de buscar información. Estas limitaciones incluyen dificultades para formular preguntas, comparar datos, evaluar la fuente de información, establecer criterios de credibilidad y formar opiniones bien razonadas.

Es importante reconocer que no se puede culpar únicamente a la tecnología por la falta de habilidades de pensamiento crítico entre sus usuarios. Estas limitaciones existían mucho antes de que existiera Internet. Sin embargo, a pesar de que la tecnología no es la causa directa de este problema, ha expuesto y exacerbado la mala actitud crítica entre los adolescentes e incluso los adultos. Ahora surge la pregunta de por qué esta preocupación se ha convertido en un problema global. ¿En qué se diferencian estas limitaciones actuales de las que existían en el siglo XX? La respuesta a esta pregunta es multifacética. Si bien Internet no es el único responsable de este problema, sin duda lo ha intensificado.

Profundicemos en las razones. Internet ha hecho que el acceso a una cantidad infinita de información sea increíblemente fácil. Si bien esta accesibilidad es indudablemente beneficiosa, los estudios internacionales revelan que esta abundancia de conocimiento en realidad puede complicar la búsqueda de respuestas. La exposición constante a la información también puede obstaculizar los procesos de toma de decisiones. La abundancia de información y su fácil accesibilidad, combinada con la velocidad a la que circula, supone un riesgo de “infoxicación”, una cantidad abrumadora de información y ruido que puede provocar confusión personal y colectiva. La saturación de información no es un fenómeno nuevo. En el siglo I, Séneca expresó su preocupación por la distracción provocada por el exceso de libros. Estas preocupaciones se amplificaron aún más con la llegada de la imprenta durante el Renacimiento. Poco después de que aumentara su popularidad, surgieron preocupaciones sobre los editores que se apresuraban a imprimir títulos sin considerar su calidad. Sin embargo, nunca antes habíamos experimentado la rápida circulación de información como la que vivimos hoy. Nos bombardean constantemente con datos, pseudodatos, rumores y chismes que se hacen pasar por información válida.

En consecuencia, aunque la tendencia a abordar los textos con una mentalidad crítica limitada no es un fenómeno reciente y ha estado presente antes de la llegada de Internet, la inundación de adolescentes y adultos con un sinfín de información exacerba el estado de confusión. y presenta desafíos importantes para discernir el significado de un texto, determinar el contenido adecuado, determinar la identidad del autor, descifrar sus intereses e intenciones, discernir y comparar varios puntos de vista y formular la propia perspectiva basada en información creíble y confiable. Este tema, sin duda, sigue intensificándose en la sociedad actual.

Con el avance de la tecnología e Internet, los desafíos que rodean la difusión de información se han vuelto más pronunciados. En el pasado, abordar un tema implicaba consultar un número limitado de fuentes autorizadas. Si bien, en el siglo XXI nos enfrentamos a una cantidad abrumadora de información disponible en la web, con distintos niveles de confiabilidad y credibilidad. Esto se complica aún más por la influencia de la inteligencia artificial (IA), que tiene la capacidad de procesar y almacenar grandes cantidades de datos.

Si bien los sistemas de lenguaje de IA pueden proporcionar respuestas, también son susceptibles de recibir información falsa, lo que lleva a resultados potencialmente incorrectos. Los creadores de estos sistemas incluso han expresado su preocupación por el uso de la IA para difundir desinformación. Por lo tanto, no es prudente confiar únicamente en los sistemas de inteligencia artificial para obtener información precisa. La abundancia de información también plantea un desafío en la toma de decisiones. A menudo creemos que más datos conducirán a mejores decisiones, pero llega un punto en el que una sobrecarga de información en realidad obstaculiza nuestra capacidad de tomar decisiones acertadas. Esto se debe a que muchas veces confundimos la información disponible con la información relevante. Irónicamente, la IA, que se suponía simplificaría la toma de decisiones, parece complicarla.

El pensamiento crítico y la creatividad son habilidades exclusivamente humanas a las que se debe dar prioridad, mientras que los sistemas de inteligencia artificial pueden ayudar a recopilar y organizar información. Sin embargo, para utilizar la IA de forma eficaz, debemos aprender a formular las preguntas correctas y comunicarnos eficazmente con estos sistemas. Desafortunadamente, la educación tradicional tiende a priorizar la memorización y la regurgitación de respuestas, en lugar de fomentar las habilidades de cuestionamiento y pensamiento crítico.

La capacidad de hacer preguntas no sólo es crucial para el pensamiento crítico, sino que también es un requisito fundamental para navegar en Internet. Es importante que las escuelas enseñen a los estudiantes cómo hacer preguntas más avanzadas que vayan más allá del típico quién, qué, dónde y cuándo. Estas preguntas de nivel superior son las que comienzan con el por qué, qué implicaciones tienen, qué cambios traen y qué consecuencias generan. Este tipo de preguntas demandan de los estudiantes diversas habilidades, como la reflexión, la curiosidad, la investigación, el análisis, la inferencia, la anticipación, la argumentación, la comunicación, la colaboración, la evaluación, la imaginación, la creatividad y la participación. Requieren que los estudiantes utilicen múltiples fuentes para encontrar respuestas, analizar diferentes argumentos y perspectivas, buscar puntos de vista opuestos, cuestionar sus propias ideas y continuar haciendo nuevas preguntas.

Las preguntas también fomentan el trabajo en equipo, la colaboración y las habilidades de comunicación. Prepararse para el mundo digital va más allá de saber utilizar una computadora; implica saber cómo hacer las preguntas correctas. El poder de una simple pregunta puede impulsar el progreso y cambiar el curso de la historia, tal como la atrevida pregunta de Albert Einstein sobre viajar en un rayo de luz. Hacer preguntas es la habilidad fundamental necesaria para navegar por Internet de forma eficaz, ya que permite a las personas desempeñar un papel activo en la búsqueda de conocimientos, en lugar de simplemente memorizar información. Enseñar la habilidad de hacer preguntas es crucial para que tanto los profesores como los estudiantes piensen de forma crítica y utilicen la inteligencia artificial de forma eficaz.

3.2 Inteligencia artificial en la era digital

En el mundo actual, saber qué preguntarle a la IA es fundamental para obtener los resultados deseados. Sin embargo, también es importante comprender cómo funciona la IA y su impacto, tanto ético como no ético. Promover la alfabetización digital y estudiar la IA como tema permite a las personas analizar cómo se construyen los algoritmos y evaluar su influencia en la vida diaria. Este conocimiento permite a las personas exigir transparencia y un diseño ético en los sistemas de IA.

Comprender la presencia de sesgos en la tecnología no es simplemente un lujo, sino un requisito esencial. Es imperativo que profundicemos en las cuestiones que rodean la inteligencia artificial y sus implicaciones. En el ámbito de la educación, estas indagaciones se han convertido en temas de análisis, investigación y debate dentro del aula. Algunas de las preguntas fundamentales que buscamos abordar incluyen: ¿Qué conocimiento posee un sistema de inteligencia artificial sobre nosotros como individuos? ¿Cómo utiliza esta información y a quién la divulga?

Asimismo, debemos considerar el alcance de la información que las empresas tecnológicas poseen sobre nosotros y las decisiones que toman en base a estos datos. ¿Quién otorga autorización a estas empresas tecnológicas para emplear la información personal que compartimos en Internet? Además, debemos explorar la influencia de las empresas tecnológicas en nuestros procesos de toma de decisiones. ¿Cómo dan forma a nuestras elecciones y dirigen nuestras acciones? Más allá de eso, deberíamos examinar las intenciones y motivos que impulsan a las empresas de tecnología en el desarrollo de sistemas de IA. ¿Cómo se construyen estos algoritmos? ¿Se adhieren a pautas éticas y reglas predeterminadas? ¿Y qué pasa cuando se desvían de estos principios? Además, debemos examinar cómo la IA discierne lo que es relevante para cada usuario y cómo llega a las decisiones. Por último, debemos contemplar la posibilidad de mejorar la transparencia en estos usos de la IA. En esencia, la exploración de estas preguntas nos permite obtener una comprensión más completa del sesgo tecnológico y sus implicaciones.

Vale la pena considerar si se puede diseñar un sistema de IA para servir a las personas, centrándose en promover la justicia y la igualdad, en lugar de involucrarse en prácticas que exploten y discriminen a las personas. En esencia, la UNESCO enfatiza la importancia de dotar a las personas de conocimientos adecuados sobre la IA, ya que esto puede empoderarlas y cerrar la brecha digital, reduciendo las desigualdades en el acceso a la tecnología digital causadas por la implementación generalizada de sistemas de IA. Para lograr esto, los Estados miembros deben promover activamente la adquisición de habilidades fundamentales para la educación en IA, incluidas la alfabetización fundamental, la aritmética, las habilidades digitales y de codificación, la alfabetización mediática e informacional, las habilidades de pensamiento crítico y creativo, el trabajo colaborativo en equipo, la comunicación efectiva, la habilidades emocionales y una comprensión integral de la ética de la IA.

Para dotar a las personas de habilidades esenciales para la era digital, es imperativo que la educación incorpore una comprensión integral de la alfabetización digital que vaya más allá del conocimiento superficial. Esto implica un examen crítico de la inteligencia artificial, profundizando en sus implicaciones y efectos en nuestra vida cotidiana. Una alfabetización de este tipo no sólo debería abordar estas cuestiones sino también analizarlas en profundidad. Por lo tanto, es crucial desarrollar un marco educativo que vaya más allá de la tendencia común a idealizar y fascinarse por la inteligencia artificial. En cambio, este marco debería alentar a las personas a cuestionarlo y desafiarlo, fomentando el desarrollo de habilidades de pensamiento crítico necesarias para navegar las complejidades de este campo en rápida evolución.

 

 

 

 

 

 

 

 

 

 

Capítulo 4

Inteligencia artificial y pensamiento crítico

Adoptar un enfoque pasivo, confiando las decisiones cotidianas a la inteligencia artificial sin cuestionar ni ser consciente de cómo se toman, plantea riesgos importantes. Así como un martillo sólo es eficaz cuando sabemos utilizarlo correctamente, el mismo principio se aplica a todas las herramientas, incluidas las tecnológicas como la inteligencia artificial. Para maximizar los beneficios de los medios digitales en la educación, es crucial que comprendamos cómo funcionan estas herramientas y las empleemos de manera crítica, en lugar de simplemente verlas como instrumentos. El simple hecho de estudiar libros no mejora automáticamente nuestra inteligencia. De hecho, incluso puede tener el efecto contrario si aceptamos ciegamente todo lo que presentan o leemos únicamente materiales que se alinean con nuestras creencias preexistentes.

En una sociedad dinámica y altamente tecnológica que prioriza la información, el conocimiento y la comunicación, es fundamental poseer habilidades fundamentales como análisis, interpretación, evaluación, inferencia, anticipación, resolución de problemas, formación de juicios, toma de decisiones, creatividad, comunicación, trabajo en equipo y participación activa. La aparición de la inteligencia artificial nos ha llevado a reevaluar nuestra comprensión del mundo digital. Es crucial para nosotros evaluar críticamente la tecnología para utilizar plenamente su potencial, reconocer sus limitaciones y considerar las implicaciones éticas de sus operaciones. Esta comprensión crítica nos permitirá tomar decisiones informadas sobre cuándo, cómo y por qué debemos emplear la tecnología.

Al desarrollar una actitud y una perspectiva perspicaces hacia la tecnología y ser más reflexivos y selectivos en su uso, podemos contribuir activamente al desarrollo de una sociedad más justa. Sin embargo, es evidente que la mayoría de los estudiantes y la sociedad en su conjunto simplemente ven la tecnología, incluida la inteligencia artificial, como herramientas sin cuestionar ni reflexionar sobre su impacto en las decisiones cotidianas. Tanto los estudiantes como los adultos a menudo dependen de la IA para abordar sus consultas o inquietudes, ya sea para navegar por lugares desconocidos, elegir una película, resolver problemas a través de asistentes virtuales o usar el reconocimiento facial para desbloquear sus teléfonos inteligentes. Para fomentar una comprensión más profunda de la IA y sus diversas aplicaciones, la educación debe trascender esta perspectiva naturalizada. Las escuelas y las políticas públicas deberían hacer hincapié en enseñar a los estudiantes cómo funciona la IA, su influencia en los procesos de toma de decisiones y su papel en la configuración de nuestra percepción del mundo y la construcción de conocimiento y significado.

Las competencias fundamentales se denominan así porque son aplicables a todas las áreas del conocimiento y son esenciales para navegar en una sociedad, un entorno laboral, un sistema educativo y una economía en constante cambio. Permiten a las personas adaptarse y prosperar en un mundo dinámico. La UNESCO enfatiza la importancia de estas competencias en la construcción de conocimiento en cualquier campo, particularmente a través del pensamiento crítico y creativo. El pensamiento crítico implica cuestionar, desafiar y analizar argumentos, así como la resolución de problemas y la toma de decisiones.

Las habilidades reflexivas y creativas son cruciales tanto para el ámbito de la vida personal como para el virtual. Estas competencias permiten a las personas aprender de los demás, reconocer el valor de las opiniones diversas, participar en debates constructivos y mejorar su propio empoderamiento cívico. Son vitales para la participación democrática y la ciudadanía activa. Además, en el panorama digital, se requieren habilidades específicas conocidas como competencias digitales para navegar y utilizar la tecnología de manera efectiva. Estas competencias promueven el uso responsable y creativo de Internet, abarcando el pensamiento crítico, la resolución de problemas, la comunicación y la participación.

Al poseer habilidades digitales transversales, las personas pueden evaluar críticamente el mundo virtual e interactuar con él de manera reflexiva y participativa. Cuando se trata de inteligencia artificial, las habilidades digitales basadas en el pensamiento crítico permiten a las personas comprender sus principios subyacentes, su funcionamiento, su diseño y su impacto en la toma de decisiones. En general, las competencias digitales basadas en el pensamiento crítico permiten a las personas desarrollar una comprensión profunda de la IA y sus implicaciones.

La inteligencia artificial está lejos de ser neutral en sus operaciones. Depende en gran medida de la información y los datos privados que recibe, lo que inevitablemente da forma a sus acciones. Además, la IA tiende a operar mediante generalizaciones, lo que a menudo puede generar sesgos a la hora de clasificar y etiquetar diversos conceptos o individuos. Estos sesgos, a su vez, pueden perpetuar las desigualdades existentes dentro de la sociedad.

Es fundamental reconocer que la IA, a pesar de sus avances, no es infalible. Es una tecnología creada por humanos y, como tal, no es inmune a los defectos y limitaciones de sus creadores. Por lo tanto, debemos abordar la IA con ojo crítico, reconociendo su potencial para iluminarnos y engañarnos en nuestra comprensión del mundo. Además de su papel de observador y analizador, la IA también busca ejercer influencia sobre nuestros procesos de toma de decisiones.

A través de sus algoritmos y recomendaciones, se esfuerza por dar forma a las decisiones que tomamos. Sin embargo, debemos ser cautelosos ya que estas sugerencias pueden verse influenciadas por los sesgos inherentes al propio sistema de IA. Una de las limitaciones inherentes de la IA radica en su capacidad para convertir las complejidades de nuestro complejo universo en un orden lineal y simplificado. Este enfoque reduccionista puede pasar por alto o simplificar demasiado inadvertidamente matices y complejidades cruciales que existen en nuestro mundo. En consecuencia, la visión de la realidad que nos presenta la IA no es omnicomprensiva, sino más bien una perspectiva particular y, en ocasiones, sesgada.

El tema de la enseñanza de la educación gira en torno a la comprensión del intrincado funcionamiento de la inteligencia artificial y su profunda influencia en nuestra vida diaria. Es crucial profundizar en los mecanismos que impulsan la IA, comprendiendo cómo funciona y opera. Así, un aspecto esencial de esta educación implica aprender a evaluar si los resultados generados por los sistemas de IA están influenciados por sesgos o tendencias discriminatorias. Debemos desarrollar la habilidad para determinar si la IA está abordando de manera responsable ciertos problemas o los perpetúa inadvertidamente. Además, es imperativo comprender la importancia de exigir transparencia y ética en el desarrollo de los algoritmos que impulsan la IA. Al inculcar consideraciones éticas y garantizar la transparencia, podemos establecer una base sólida para la construcción de sistemas de IA, fomentando un panorama tecnológico justo y equitativo.

La capacidad de utilizar cuidadosamente las tecnologías y la inteligencia artificial, así como analizar y navegar eficazmente en situaciones complejas en el ámbito digital, son habilidades esenciales para que las personas comprendan e interactúen con la realidad cada vez más dominada por las pantallas del siglo XXI. Estas habilidades capacitan a los ciudadanos para abordar y superar eficazmente los diversos problemas y desafíos de nuestro tiempo, tomar decisiones independientes y participar activamente en la sociedad. Sin una base sólida de habilidades y conocimientos digitales, la tecnología, incluida la inteligencia artificial, servirá simplemente como herramientas para fines prácticos, desprovistas de una comprensión más profunda o un compromiso crítico.

4.1 Desafíos

La creación que surge de la inteligencia artificial siempre está conectada a los datos, textos e imágenes que se han utilizado para entrenar el sistema. Por otro lado, profesores y alumnos tienen la capacidad de crear libremente utilizando su imaginación. Esta capacidad de libre creatividad, junto con el pensamiento crítico, es fundamental para la educación. Además, la curiosidad, de la que carece la IA, es un aspecto esencial del aprendizaje.

La curiosidad nos permite cuestionar, investigar, descubrir y apreciar cosas nuevas. Estas cualidades, como el pensamiento crítico, la ética, la empatía, la colaboración y la imaginación, son partes integrales de la educación que la IA no puede replicar. La cuestión de si la inteligencia artificial reemplazará a los docentes y eliminará la necesidad de la escolarización tradicional es una preocupación común en los entornos educativos. Empero, es importante reconocer que la IA no puede reemplazar el papel esencial de los docentes en la promoción del pensamiento crítico y creativo.

Los sistemas de IA se limitan a responder a instrucciones basadas en la información con la que han sido entrenados y los datos que han recibido. Incluso los llamados textos "nuevos" generados por la IA son en realidad compilaciones de información existente que se encuentra en varios sitios web. De manera similar, la IA puede crear pinturas artísticas, pero solo si se la ha alimentado con imágenes que se alinean con las instrucciones del usuario. Es crucial reconocer que la tecnología y la inteligencia artificial solo deben usarse como herramientas para mejorar y complementar lo que nos hace humanos: nuestra creatividad, curiosidad, esperanza, ética, empatía, determinación y capacidad de colaborar. La educación debe seguir dando prioridad a estas cualidades humanas y utilizar la tecnología como una herramienta de apoyo en lugar de un reemplazo de los maestros humanos y el entorno escolar tradicional.

Este es precisamente el aspecto que la educación debe priorizar, un aspecto que no puede ofrecer ningún sistema de IA. ¿Qué otras cualidades únicas posee la escuela? ¿Cuáles son los desafíos educativos actuales frente a los continuos avances tecnológicos?

Este es un desafío distinto y significativo que el sistema educativo debe enfrentar en la sociedad actual. Es imperativo que la educación defina su valor y propósito únicos. Al aceptar este desafío y reevaluar su enfoque, la educación puede abrir un camino que la inteligencia artificial nunca podrá replicar ni superar.

4.2 Abordaje en la clase sobre la IA

4.3 Reiniciar

En conclusión, a medida que la inteligencia artificial continúa avanzando e integrándose en nuestras vidas, es crucial que reconozcamos la necesidad de una nueva educación. Esta educación debería priorizar el desarrollo de habilidades que la IA no puede replicar, como el pensamiento crítico, la creatividad, la empatía y la toma de decisiones éticas. Al hacerlo, podemos garantizar que las personas estén preparadas para navegar las complejidades de un mundo impulsado por la IA y tomar decisiones informadas y responsables. Si bien es esencial reconocer la presencia de la inteligencia artificial en nuestras vidas, la educación no puede permitirse el lujo de ignorar su influencia.

La IA ya ha comenzado a tomar decisiones que impactan nuestras vidas, moldean nuestros comportamientos e influyen en nuestras perspectivas sobre el mundo. Por lo tanto, se vuelve imperativo que la educación se adapte y responda a este avance tecnológico a fin de dotar a las personas de las habilidades necesarias para navegar en un futuro en el que la IA sea una presencia omnipresente. Ante una realidad cada vez más compleja, dinámica y en constante cambio, hemos enfatizado la importancia de adquirir las habilidades necesarias. Si bien es esencial adquirir competencia en el uso de herramientas de medios digitales como Word, Excel y motores de búsqueda, es igualmente crucial desarrollar habilidades de pensamiento crítico, una mentalidad creativa y una comprensión de la tecnología e Internet. Es vital que aprendamos a reflexionar, pensar y priorizar, ya que estas habilidades fundamentales no pueden adquirirse en una etapa posterior si se descuidan inicialmente.

En esta extensa discusión sobre la inteligencia artificial, hemos profundizado en su significado y alcance. Hemos examinado minuciosamente los aspectos éticos y no éticos de su operación y explorado su impacto en nuestra vida diaria, así como su influencia en nuestro proceso de toma de decisiones. Además, también hemos hablado de los retos que plantea la inteligencia artificial para la educación. El sistema escolar tiene la responsabilidad indiscutible de promover estas habilidades, que están más allá de las capacidades de la inteligencia artificial. La educación debe estar a la altura del enorme desafío de centrarse en áreas que la IA nunca podrá abordar por completo. Esto incluye fortalecer las habilidades reflexivas y creativas, fomentar el pensamiento crítico, fomentar la imaginación, cultivar la curiosidad, promover el trabajo en equipo eficaz, fomentar la empatía, inculcar valores éticos, fomentar la creatividad, fomentar la comunicación y fomentar la participación activa.

La Inteligencia Artificial (IA) desempeña un papel importante en el mundo en el que vivimos, especialmente en lo que respecta a la educación. Sin embargo, su incorporación no debe limitarse a ser sólo una herramienta. Más bien, debería estudiarse, analizarse y debatirse. La reflexión y el cuestionamiento son necesarios para comprender su impacto social y humano, que es tan inmenso que requiere una filosofía rectora. Necesitamos considerar qué debemos hacer con estas tecnologías y cómo nos afectarán. Estas preguntas van más allá de meras respuestas técnicas y tocan valores y visiones de lo que es bueno.

La educación debe priorizar la alfabetización digital, no solo para los estudiantes sino también para los docentes. Debería capacitarlos para identificar, comprender y responder a los nuevos problemas que surgen en el mundo digital, incluidos los que presenta la inteligencia artificial. Surge la pregunta de si la IA puede reemplazar a las escuelas, los docentes o la enseñanza, pero la respuesta sigue siendo constante: no, siempre y cuando la educación no dependa de metodologías obsoletas y enfoques simplificados.

La educación debe aportar valor añadido, evitando un énfasis excesivo en la memoria, la copia y la acumulación. No debería aspirar a competir con las capacidades de la IA, sino más bien analizarlas, debatirlas y complementarlas. La brecha digital se define por las capacidades que tienen o carecen los individuos para identificar, enfrentar y responder a los nuevos problemas y preguntas que surgen del uso de Internet. No se trata simplemente de utilizar la herramienta, sino de comprenderla. La educación enfrenta el desafío de pensar en las tecnologías en lugar de simplemente utilizarlas instrumentalmente. Como enfatiza la UNESCO, la alfabetización digital empodera a los estudiantes en todos los ámbitos de la vida y les ayuda a alcanzar objetivos personales, sociales, ocupacionales y educativos. Es un derecho básico en nuestro mundo digital y promueve la inclusión social de todas las naciones.

Por lo tanto, la educación debe centrarse en formar ciudadanos digitales que comprendan cómo funciona el entorno digital y los principios que lo rigen. Necesitan analizar el lugar y el papel de las tecnologías en la sociedad, evaluar su impacto en la vida diaria y comprender cómo contribuyen a la construcción del conocimiento. Estos ciudadanos también deberían saber cómo utilizar estas tecnologías de manera efectiva para la participación. Deben tener la capacidad de navegar en contextos digitales complejos y comprender sus implicaciones en diversos aspectos de la vida, como el social, económico, político, educativo y laboral.

Conclusiones

En la era digital moderna, las personas están dispuestas a ceder sus datos personales a cambio de diversas formas de gratificación. Ya sea para mejorar la salud física o mantener un contacto regular con sus seres queridos, las personas a menudo quieren ignorar los riesgos potenciales de revelar información personal. La popularidad de las plataformas de redes sociales es otro ejemplo de este fenómeno, donde las personas revelan voluntariamente datos confidenciales como fotografías, ubicaciones e información personal a cambio de reconocimiento y aceptación social en forma de me gusta y comentarios.

Esta tendencia se ve reforzada aún más por las asombrosas ventas de parlantes inteligentes, que totalizaron 147 millones de unidades en 2019. Lo preocupante, sin embargo, es el hecho de que un número importante de compradores de estos dispositivos desconocen hasta qué punto se graban sus conversaciones y para qué se utiliza esta información. La recopilación de datos sobre el comportamiento y la personalidad en línea de las personas a través de redes sociales y motores de búsqueda es un proceso importante y continuo. Una simple conexión a un dispositivo digital permite a estas plataformas recopilar información sobre los usuarios, incluidos sus intereses, personalidad y deseos.

El acceso a la inteligencia artificial desmedida no sólo da acceso a una gran cantidad de información sino que también lo convierte en una fuente de datos, sin embargo, aún falta camino para la ética en uso. Esta percepción se ha visto resaltada por el auge de las redes sociales y las aplicaciones gratuitas, donde ha quedado claro que cuando algo se ofrece gratis, a menudo significa que se están aprovechando de nosotros. A cambio de los servicios que brindan estas empresas, sin darnos cuenta contribuimos a sus ganancias brindándoles nuestra atención, que puede venderse a anunciantes y datos a nuestros individuos, que alimentan sus algoritmos. El mismo patrón se repite ahora con los robots de inteligencia artificial, aunque a mayor escala y con nueva complejidad. Aunque muchos usuarios no entienden claramente cómo las empresas tecnológicas utilizan sus datos personales, no pueden ignorar este mecanismo. Es importante reconocer que no se puede culpar únicamente a la tecnología por la falta de habilidades de pensamiento crítico entre sus usuarios. Estas limitaciones existían mucho antes de que existiera Internet. Sin embargo, a pesar de que la tecnología no es la causa directa de este problema, ha expuesto y exacerbado la mala actitud crítica entre los adolescentes e incluso los adultos.

Ahora queda la pregunta de por qué esta preocupación se ha convertido en un problema global. ¿En qué se diferencian estas limitaciones actuales de las que existían en el siglo XX? La respuesta a esta pregunta es multifacética; si bien el acceso no supervisado no es el único responsable de este problema, sin duda lo ha intensificado.

 

 

 

 

 

 

 

 

 

Bibliografía

Anderson, C. W., Bell, E. & Shirky, C. (2014). Post Industrial Journalism: Adapting to the Present. New York: Columbia University Libraries.

Arbeláez-Campillo, D. F., Villasmil Espinoza, J. J., & Rojas-Bahamón, M. J.  (2021). Inteligencia artificial y condición humana: ¿Entidades contrapuestas o fuerzas complementarias? Revista de Ciencias Sociales (Ve), XXVII(2), 502-513.

Beckett, C. (2019). New Powers, New Responsibilities: A Global Survey of Journalism and Artificial Intelligence.

Bostrom, N. (2014). The ethics of artificial intelligence. Frankish, K. & Ramsey, M. Cambrigde University Press: The Cambridge handbook of artificial intelligence.

Carlson, M. (2015). The Robotic Reporter: Automated journalism and the redefinition of labor, compositional forms, and journalistic authority. Digital Journalism, 3(3), 416-431.

Diakopoulos, N. (2015). Algorithmic Accountability: Journalistic investigation of computational power structures. Digital Journalism , 3(3), 398-415.

Firat, F. (2019). Robot journalism. The International Encyclopedia of Journalism Studies, 1-5.

Fromm, E. (2003). Ética y psicoanálisis. Fondo de Cultura Económica.

Fukuyama, F. (2002). El fin del hombre: consecuencias de la revolución biotecnológica. Madrid: Zeta.

Garrafa, V. (2009). Epistemología de la bioética, enfoque latinoamericano. Revista Colombiana de Bioética, 4(1), 277-296.

Glahn, H. (1970). Computer worded forecasts. Bulletin of the American Meteorological Society, 51(12), 1126-1132.

Graefe, A. (2016). Guide to Automated Journalism. Columbia University Libraries.

Hottois, G. (1991). El paradigma bioético. Una ética para la tecnociencia. Barcelona: Anthropos.

Hume, D. (1748). An enquiry concerning human understanding

Kaku, M. (2011). La física del futuro. Bogotá: Debate.

Kaku, M. (2014). El futuro de nuestra mente. Bogotá: Debate.

Kurzweil, R. (1992). The age of intelligent machines. Cambridge, M. A: MIT Press.

Kurzweil, R. (2005). The singularity is near: When humans transcend biology. Carlos, G. Germany (trad.). Lola Books.

Lassi, A. (2022). Implicancias éticas de la inteligencia artificial. Tecnologías y producción de noticias. InMediaciones de la Comunicación, 17(2), 153-169.

Linares, J. E. (2008). Ética y mundo tecnológico. México: FCE.

Martínez, M. (2009). La nueva ciencia: Su desafío, lógica y método. Trillas.

McCulloch, W. S. & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5, 115–133.

Morduchowicz, R. (2023). La inteligencia artificial ¿Necesitamos una nueva educación? UNESCO: Francia.

Nath, R., & Sahu, V. (2020). The problem of machine ethics in artificial intelligence. Artificial Intelligence and Society, 35(1), 103-111.

Observatorio de RSC. (s. f.). La responsabilidad social corporativa (RSC).

Ríos, S. (1976). Análisis de decisiones. ICE Ediciones.

Schwartz, R., Dodge, J., Smith, N. A., & Etzioni, O. (2019). Allen Institute for AI, Seattle, Washington, USA. Carnegie Mellon University, Pittsburgh, Pennsylvania, USA. University of Washington, Seattle, Washington, USA.

Ponce, Julio & Torres, Aurora & Aguilera, Fátima & Silva Sprock, Antonio & Flor, Ember & Casali, Ana & Scheihing, Eliana & Tupac, Yvan & Torres, Dolores & Ornelas, Francisco & Hernández¹, José-Alberto & D., Crizpín & Vakhnia, Nodari & Pedreño, Oswaldo. (2014). Inteligencia Artificial.

Pérez Orozco, B. y Rentería Rodríguez, M. (2018). Inteligencia Artificial. INCyTU, 12.

Savater, F. (1999). Ética para Amador. Ariel

Simon, H. (1960). The new science of management decision. Harper & Brothers.

UNESCO. (2022). Recomendación sobre la ética de la inteligencia artificial. UNESCO: Francia.

Verdegay, J. L., Lamata, M. T., Pelta, D., & Cruz, C.  (2021). Inteligencia artificial y problemas de decisión: la necesidad de un contexto ético. Suma de Negocios, 12(27), 104-114.

Villalba Gómez, J. A. (2016). Problemas bioéticos emergentes de la inteligencia artificial. Diversitas: Perspectivas en Psicología, 12(1), 137-147.

Villasmil, J. (2020). La fragilidad de las civilizaciones humanas. Cuestiones Políticas, 37(64), 10-14.

 

 

 

 

 

 

 

 

De esta edición de “Inteligencia artificial en la ética de la educación”, se terminó de editar en la ciudad de Colonia del Sacramento en Septiembre de 2024


 

 

Pág. 1