En el panel «Los rostros de la inteligencia artificial: ¿para qué?», Víctor Hugo Zaldívar Carrillo, académico del ITESO, aseguró que la mayoría de los dilemas éticos que se le quieren achacar a la inteligencia artificial no existen: «los seres humanos juegan a dudar de esto porque les gusta quitarse la responsabilidad»
Por Teresa Sánchez Vilchis
El mejor modelo de inteligencia es el que se ve frente al espejo todas las mañanas. Si bien es cierto que en el decenio más reciente la humanidad ha tenido grandes avances en el desarrollo de tecnologías que replican de forma fascinante las acciones de las personas, es importante no olvidar que la decisión final no se le debe dejar a una computadora: «el dilema ético es mío, no de la herramienta que construyo».
Así lo expresó Víctor Hugo Zaldívar Carrillo, académico del ITESO, durante el panel «Los rostros de la inteligencia artificial: ¿para qué?», organizado por el Departamento de Electrónica, Sistemas e Informática (DESI) de esta universidad y que tuvo lugar el pasado 4 de mayo. Ahí, a propósito de una pregunta del público, se abrió la discusión sobre los dilemas éticos a los que se enfrenta hoy este sector de la ciencia.
Además de Zaldívar, como expositores estuvieron José Abdón Ramírez, ingeniero de software senior HCL; Paulo López Meyer, ingeniero de investigación de IA Intel, y Víctor Martínez Sánchez, estudiante del Doctorado Ciencias de la Ingeniería del ITESO.
La mayoría de los dilemas éticos que se le quieren achacar a la inteligencia artificial (IA) no existen. Los seres humanos juegan a dudar de esto porque les gusta quitarse la responsabilidad. La decisión final no se le debe dejar a una computadora, por más inteligente que esta sea. «Estos sistemas son una herramienta que necesita ser puesta en manos de gente competente y que tenga el dominio y el conocimiento del problema que se va a tratar», detalló Zaldívar.
«Esos dilemas no son dilemas éticos de la inteligencia artificial, sino de la persona que la está utilizando para tomar la decisión y del científico que está desarrollando una herramienta para ser puesta en manos de otras personas. Eso sí es importante, como ingenieros, como profesionistas siempre tenemos que tener esta postura de autocrítica. Para qué sirve esto que estoy haciendo. Para qué es bueno esto. Qué consecuencias puede tener. Qué consecuencias negativas. Yo responsablemente tengo que decidir si continuo pese a esas consecuencias negativas o si puedo hacer algo para evitar esas consecuencias negativas», enfatizó el especialista.
De acuerdo con Paulo López Meyer, cuando se desarrollan soluciones tecnológicas para resolver ciertos problemas, es poco probable que se piense en las consecuencias éticas. «Para mí, la discusión es ver cómo le hacemos para impulsar el desarrollo de estas tecnologías que nos pueden ayudar y, al mismo tiempo, tratar de entrar a todo en un margen ético y decir no es para dañarte ni para perjudicarte».
«Muchas de las discusiones alrededor de la ética en la inteligencia artificial se reducen a eso. Es decir, no me puedo detener yo como desarrollador a impulsar el nuevo conocimiento, aplicaciones y herramientas, solamente porque hay una cuestión ética de por medio, sino más bien tratar de resolverla», agregó el investigador.
«Los rostros de la inteligencia artificial: ¿para qué?» fue un panel en el que convergieron representantes de la industria de la alta tecnología, académicos, investigadores y estudiantes, quienes coincidieron en que la IA es una forma de contribuir a resolver problemas socialmente relevantes desde una perspectiva que hace que los sistemas de cómputo sean más cercanos a los seres humanos y por lo mismo más útiles a estos.
Esta herramienta, concluyeron, se incrementa como una tendencia que generará grandes oportunidades, gracias a sus múltiples factores de aplicación. La diferencia radica en la especialización y el valor agregado que en cada empresa logra aportar como tal.
La IA, destacó Zaldívar Carrillo, puede resolver cualquier problema siempre y cuando se tenga claridad de lo que se busca y de cómo se va a medir el éxito de la resolución. «Nuestras computadoras para lo que más sirven es para procesar datos. Todo lo que hacemos genera datos. Procesar todo esto son las áreas en las que mejor se puede aplicar la IA».
Esta tecnología puede tener muchos usos, que van desde generación de estadísticas, predicciones, hasta el uso de otros instrumentos que toman algunas metodologías de otras disciplinas como manejo semántico de algunos textos o la construcción de historia a través de un sistema.
«Tener un problema claramente definido, un marco para saber si nuestras decisiones son verdaderamente racionales y darle la inteligencia a la inteligencia. Saber qué tan lejos o cerca está del objetivo que hemos definido. Hay que entender las limitaciones del algoritmo. Estadísticamente una mentira que se repite mucho se convierte en verdad, por ejemplo: los correctores nos meten zancadilla todo el tiempo», explicó Zaldívar.
López Meyer llamó a no romantizar el uso y los alcances de la IA. Sin embargo resaltó que hay un tipo de problemas que esta herramienta sí puede resolver muy bien: «es en el que un humano tiene que tomar una decisión, no una acción. Los tipos de problemas que la IA resuelve de forma muy eficiente son en los que un humano está involucrado en una decisión». Por ejemplo, el contar cuántos automóviles pasan en un puente de una gran ciudad. Una máquina puede contar día y noche, cuando llueve o hace sol, el número de automóviles y que, a partir de los resultados, las autoridades determinen qué hacer.
Para José Abdón Ramírez, la eficacia de la IA depende del tipo de problema que se tenga que atacar y del tipo de estructura que el problema tenga en sí mismo. «Muchas de las tareas que intentamos resolver con las máquinas, de descubrir los patrones, son problemas de agrupamiento, cuya estructura es tener una gran cantidad de datos y la máquina tiene que encontrar las que tengan características similares».
«En el caso de clasificación es otro tipo de estructura en la que se puede utilizar. Por ejemplo, una serie de imágenes, en la que quiero que la máquina distinga qué es un gato de lo que no lo es. Es una agrupación dirigida. Otro tipo es cuando le damos a la máquina una recompensa que distingue lo que está bien de lo que está mal. Esta permite que la máquina tenga la capacidad de aprender. Estos problemas se considera que tienen una amplia estructura porque abarcan una cantidad de problemas interesantes», explicó. Por ejemplo, en los videojuegos, en los que los sistemas aprenden entornos.
En cuanto al futuro cercano, López Meyer manifestó que hay mucha especulación sobre qué cosas nuevas van a existir: «Lo que podemos hacer es ver en retrospectiva qué sigue, no sabemos. Lo que sí se sabe, por ejemplo, es que va a haber una revolución como lo fue la revolución industrial o la revolución electrónica. Cómo le vamos a hacer o qué desfasamiento va a haber en la humanidad, no sabemos. Bueno, al menos yo no lo sé, pero de que va a haber una situación en la que vamos a tener que cambiar nuestra dinámica laboral, lo vamos a tener que hacer y ya se está viendo».
Para Abdón Ramírez es difícil saber qué nuevos trabajos van a surgir, porque la IA trata de hacer posible en la máquina lo que el mismo hombre hace. «Entre más nos acercamos a que la máquina haga lo que el hombre hace, indiscutiblemente la sustitución del hombre es inminente. La máquina no descansa, puede trabajar 24 horas diarias. La máquina no come, solamente se alimenta de electricidad y mientras eso esté ahí la máquina puede trabajar».