martes diciembre 17 de 2024

La I.A. no tiene sueños

09 diciembre, 2024 Opinión Andrés Hoyos

Andrés Hoyos

El tema de la I.A. se ha vuelto ineludible. Que va a poner al mundo patas arriba, que ya lo puso, que después va a usurpar el mando, según muchos espectadores recordamos que hace el gran computador al final de Odisea del espacio, la película de Kubrick. Pues bien, les tengo noticias a los lectores: nada de esto parece que va a suceder.

Para estimar los potenciales alcances y usos en casos semejantes, me parece esencial establecer al mismo tiempo los límites que el fenómeno tiene. ¿Qué es en últimas la I.A.? Es una red en extremo robusta de softwares interconectados, lanzada por humanos pero que tiene formas programadas de prescindir de ellos al tiempo que da sus resultados. Es sabido que en ciencias exactas y actividades muy formalizadas matemáticamente la I.A. tiene un poderoso dinamismo que antes no estaba disponible. Otro cantar es cuando se parte de una definición ideológica o política. En tales casos la I.A. no hace más que amplificar los sesgos originales que rodean a cualquier idea. Los humanos recurrimos a racionamientos lógicos, algo que la I.A. aprende a hacer muy rápido, pero tenemos sentimientos y pasiones, algo que es mucho más difícil de programar. El odio de Putin por Ucrania, para poner un ejemplo, se puede analizar por los hitos de su desarrollo, aunque de ningún modo era previsible por una máquina. Los humanos, en cambio, tenemos intuiciones y otros mecanismos que nos permiten comprender y hasta predecir ciertas acciones no racionales de los demás. Una máquina no puede alucinar; un ser humano sí.

Una forma metafórica de señalar los límites de la I.A. es la del título: no tiene sueños. Y no sueña porque carece del inconsciente, mecanismo ubicuo en los humanos. La humanidad soñante somos algo más de ocho mil millones de personas, así muchos no tengan presente esta dimensión. En contraste, las sedes de la I.A. no deben ser más de unos cuantos millones de “mentes” diferentes, ninguna de las cuales sueña en realidad, así lo simulen.

Los humanos tenemos la costumbre de jugárnosla por alguna conclusión. En contraste, la I.A. da argumentos hacia ambos lados en los asuntos sobre los que le preguntan, pero no suele decidirse por uno de ellos, a menos que la duda haya desaparecido mucho tiempo atrás. La valoración ética no es lo suyo. De ahí algo que decía en estos días sobre el tema El País de Madrid: “Hoy se habla ya de lo que la consultora Gartner denomina el valle de la decepción: la euforia inicial generó expectativas tan altas que, al no ser satisfechas de forma inmediata, han hecho que decaiga el interés”.

Hay un viejo principio sobre las tecnologías que se tiene que volver a aplicar ahora. Está muy bien que alertas de todo tipo ayuden a un piloto a manejar su avión. Otro cantar es dejar que lo hagan las computadoras solas. Sí, sin duda llegará el día en que suceda, pero al menos a mí no me corre ningún afán, sobre todo en asuntos que pueden ser de vida o muerte. Al fin, los índices recientes de seguridad aérea –para seguir con el tema– son magníficos. Aplica entonces el viejo dicho: si no está dañado, no lo arregle.

Lo esencial en esta polémica es que cada cual aprenda a usar la I.A. y aprenda a contrarrestar las graves falencias que esta a veces muestra. O sea, aceptar así porque sí una opinión que aparece en las redes sociales puede tener un potencial desastroso. Una notable cantidad de falsedades se han propagado porque una o varias personas no verificaron de dónde salían. Averiguar las fuentes de algo, utilice o no la I.A., no es tan difícil. Ya después se puede debatir sobre la validez o no del argumento.

[email protected]

Share Button