Integrantes de las carreras de Filosofía y de Ingeniería en Ciencia de Datos reflexionaron en torno a la inteligencia artificial, explorando áreas y conceptos como la ética, lo auténtico, la voluntad y la conciencia. En un encuentro que buscó abrir preguntas sobre cómo definimos la inteligencia, qué implica atribuirla a una máquina y cuáles son los alances de una tecnología que avanza más rápido que nuestra capacidad para comprenderla
La inteligencia artificial (IA), marca un punto y aparte en la historia de la humanidad. Algunos la comparan con hitos como el descubrimiento de la electricidad o con transformaciones que cambiaron radicalmente la vida social y económica. No es para menos: su sofisticación ha permitido optimizar procesos en prácticamente todas las áreas imaginables e impulsar el ya veloz ritmo de los avances tecnológicos. Esta aceleración contrasta con el paso pausado del pensamiento filosófico, que desde hace siglos debate conceptos como la inteligencia, la conciencia y la razón.
Con esta premisa, integrantes de las sociedades estudiantiles de Filosofía y de Ingeniería en Ciencia de Datos organizaron el conversatorio “Inteligencia Artificial vs. Inteligencia Humana”, un espacio que no buscó enfrentar disciplinas ni comparar capacidades entre personas y máquinas, sino reflexionar sobre la complejidad del concepto de inteligencia y los retos que plantea el creciente desarrollo de la IA.
Comenzar por la historia del término es clave, pues quizá la humanidad se apresuró al nombrar con un concepto tan abstracto como “inteligencia” a estos modelos de aprendizaje. Según Ignacio Charretón, estudiante de Filosofía: “no es un concepto universal en la historia del pensamiento”. Durante su intervención, explicó que el significado actual de esta palabra surgió apenas a finales del siglo XIX, vinculado a la psicología y a teorías darwinistas. Desde entonces, ha estado asociado a nociones como razón, conciencia y singularidad humana, e incluso, en épocas anteriores, a lo divino.
Desde esa perspectiva, la IA difícilmente puede equipararse a la inteligencia humana, que se construye a partir de la experiencia, las emociones, la voluntad y la curiosidad, impulsada por un cuestionamiento innato. Las máquinas, aunque no sienten, aprenden mediante procesos estadísticos que les permiten reconocer patrones, generar respuestas con una rapidez y capacidad de almacenamiento millones de veces superior. “Definir la inteligencia no es la mejor estrategia, digamos, intelectual para entender el fenómeno que estamos hablando en tanto que está un poco viciada desde el comienzo”, señaló Charreton.
Por su parte, José Arriaga profesor de la carrera de Filosofía advirtió que el concepto de inteligencia se ha construido desde una mirada antropocéntrica, utilizada no solo para clasificar capacidades, sino para legitimar derechos y posiciones de poder. Recordó que algo similar ocurre con la inteligencia animal, reconocida apenas en tiempos recientes que, aunque su sensibilidad y razonamiento no son comparables con los humanos, no por ello deben considerarse inexistentes. “La concepción de la inteligencia como una performatividad intelectual es aplicable no solo en el contexto de la inteligencia artificial, sino también en relación al resto de seres vivos”, añadió Charreton.
Esta idea abre interrogantes sobre el futuro: ¿qué ocurrirá cuando las máquinas alcancen un desarrollo que les permita interactuar con el mundo de manera más completa, tomar decisiones propias e incluso adquirir conciencia? Tal vez la humanidad no se llegue a percatar de ello, como tampoco advierte la complejidad del pensamiento animal. “El reconocimiento de la inteligencia no es solo el reconocimiento de la capacidad de resolver problemas […] Es el reconocimiento de la capacidad de participar en la vida pública, de la vida política”, puntualizó Omar Hernández, estudiante de Filosofía.
Por ahora, se convive con inteligencias artificiales consideradas “débiles”, pero su evolución parece inevitable. El verdadero dilema, según los panelistas, es si en verdad se desea crear entidades casi idénticas a las personas, pues ello implica asumir responsabilidades éticas y morales. “No estamos todavía en el momento de definir claramente las respuestas, pero sí es el momento en el que tenemos que hacer las preguntas adecuadas”, concluyó Juan Antonio Vega, profesor del Departamento de Electrónica, Sistemas e Informática DESI.
FOTO: Zyan André
