sábado, 29 de abril de 2023

Inteligencia artificial (IA), preguntas y respuestas

La inteligencia artificial está aquí, allá y acullá. Los expertos hablan con elocuencia y a veces no tanto. Los vídeos de YouTube revelan secretos internos y posibilidades, y a veces cosas que no son tan internas, ni tan secretas, ni siquiera posibles.

 

INTELIGENCIA ARTIFICIAL (IA),
PREGUNTAS Y RESPUESTAS



Michael Albert
Counterpunch

La inteligencia artificial está aquí, allá y acullá. Los expertos hablan con elocuencia y a veces no tanto. Los vídeos de YouTube revelan secretos internos y posibilidades, y a veces cosas que no son tan internas, ni tan secretas, ni siquiera posibles. La IA nos destruirá. La IA nos fortalecerá rotundamente. ¿Cuáles son las preguntas que realmente importan? ¿Qué respuestas podrían importar? Los debates se multiplican rápidamente, pero reina la confusión.

Entre tanto ruido, he aquí algunas cuestiones que parecen fundamentales.

+ ¿A qué viene tanto alboroto? ¿Qué puede hacer la IA de hoy que no pudiera hacer la de ayer?

+ Aunque sólo sea a grandes rasgos, ¿cómo funciona la nueva IA? Si no es magia, ¿qué es?

+ Cuando la IA hace cosas que nosotros hacemos, ¿las hace como las hacemos nosotros?

+ ¿Puede la IA hacer cosas que nosotros hacemos tan bien o mejor que nosotros?

+ Cuando la IA puede hacer cosas mejor de lo que nosotros los humanos lo hacemos, ¿cuánto mejor puede hacerlo?

+ Y, sobre todo, ¿cuáles son las consecuencias importantes a corto plazo del progreso de la IA? ¿Cuáles son las posibilidades a largo plazo del progreso de la IA? ¿Y cómo deberían responder a la IA los defensores de un cambio social progresista o revolucionario?

Si usted conoce todas las respuestas, felicitaciones, es la única persona del planeta que las conoce. Pero, a pesar del estado de ignorancia y de incertidumbre, ¿podemos decir algo al menos con cierta seguridad? Vayamos por partes.

¿Por qué tanto alboroto? ¿Qué puede hacer ahora la IA que no pudiera hacer antes?

La respuesta breve sería, mucho. Antes -digamos hace dos décadas- las máquinas no invadían demasiado terrenos que normalmente sólo pisaban los humanos. Bueno, un momento. Las máquinas jugaban juegos como el ajedrez y el go. Y podían actuar como expertos mediocres en algunos temas muy específicos. Pero dos décadas después, y sobre todo en los últimos seis años, y abrumadoramente en los últimos tres años, y en realidad incluso justo en el último año, y -mientras escribo- incluso justo en el último mes o semana, las máquinas pintan cuadros, componen música, diagnostican enfermedades e investigan y preparan dictámenes jurídicos. Escriben manuales técnicos, noticias, ensayos, cuentos (e incluso novelas...). Las máquinas codifican software, diseñan edificios y aprueban exámenes increíblemente diversos. Ahora mismo, en la mayoría de los estados, las máquinas podrían convertirse en abogados. Por lo que sé, probablemente también hayan aprobado exámenes de medicina. Las máquinas ofrecen asesoramiento en salud mental, cuidado de ancianos, apoyo personal e incluso compañía íntima. Las máquinas conversan. Encuentran patrones. Resuelven problemas complejos (como el plegamiento de proteínas). Y desde esta semana, colaboran e incluso pueden hacerse peticiones unas a otras. Y mucho más.

Entonces, ¿eso es todo a lo que nos referimos cuando hablamos de IA? Sí, porque lo que suele calificarse de inteligencia artificial son máquinas que hacen cosas que los humanos hacemos con el cerebro. Son máquinas que hacen cosas que nosotros hacemos mentalmente o, para usar una palabra más elegante, que hacemos cognitivamente. Y la sorpresa es que la IA de hoy, y ni hablar la de mañana, no solamente hace cosas mentales de forma rudimentaria. No. Incluso la IA de hoy, ni hablar la de la semana que viene, o la del año que viene, hace muchas cosas mentales tan bien y en algunos aspectos significativos no solo cientos de veces más rápido sino también cualitativamente mejor que casi todos los humanos hacen estas cosas. Y en algunos casos, con más por venir, mejor de lo que cualquier humano hace o incluso hará alguna vez estas cosas. ¿Recuerdan la gran noticia que fue cuando un programa informático derrotó a Garry Kasparov, el entonces Campeón del Mundo de Ajedrez en 1997? Pues bien, el programa que le derrotó sería aniquilado por la IA actual, y lo mismo ocurre con otros juegos. La brecha entre los mejores jugadores del mundo de ajedrez, go, póquer e incluso videojuegos y la mejor IA de cada uno de esos juegos se ha hecho enorme. Y este diferencial no se limita a los juegos.

Aunque sólo sea a grandes rasgos, ¿cómo funciona la nueva IA? Si no es magia, ¿qué es?

Puede que les cueste creerlo, pero más allá de algunas observaciones limitadas, las mejores fuentes que he podido encontrar afirman que nadie puede responder plenamente a esta pregunta. Y me refiero a nadie. Por ejemplo, las IA que han sido entrenadas en inglés para leer, escribir y conversar, utilizar, como todos hemos oído, "redes neuronales" entrenadas básicamente con tantos datos como sea posible utilizar, que resultan ser millones de libros y casi todo lo que hay en Internet. Una vez entrenadas, estas IA generan la siguiente palabra, y luego la siguiente, y así sucesivamente, para satisfacer acumulativamente las peticiones que se les hacen por una respuesta escrita, o gráfica, o de otro tipo. Cada paso que da la IA implica un enorme número de cálculos. Según algunas estimaciones, la red neuronal entrenada más actualizada, la GPT-4, incluye unos 150 billones de números, o pesos, cada uno de ellos asociado a conexiones entre nodos que están vagamente modelados a partir de las neuronas que se encuentran en los cerebros orgánicos. Supongo que esa cifra, 150 billones, es una exageración provocadora que surgió de algún periodista indiscreto y que luego se convirtió en falso evangelio, pero, aun así, podemos estar bastante seguros de que la cifra verdadera, aún no publicada, es increíblemente alta. Sea cual sea la cantidad de números que caracterizan a GPT-4, están ahí para actuar sobre las entradas, es decir, para actuar sobre la petición que se hace a la IA, petición que a su vez se traduce primero en números. Esta "actuación" produce a su vez resultados numéricos que la IA traduce a su vez en textos (o imágenes o melodías o cualquier otra cosa) que recibimos. En medio de todo ese cálculo, y de nuevo a través de las mejores fuentes, se establecen varios parámetros y características adicionales esencialmente por ensayo y error.

Sí, ensayo y error. En otras palabras, los ingenieros no pasaron de GPT-2 en 2019, a GPT-3 en 2020, a GPT-3.5 en 2022, a GPT-4 meses después, en 2023, teniendo una teoría cada vez más enriquecida del funcionamiento de su producto y haciendo grandes cambios guiados por esa teoría. No. En lugar de eso, por un lado, los ingenieros simplemente ampliaron la red neuronal, aumentando su número de nodos y parámetros y observando si eso mejoraba los resultados, cosa que, hasta ahora, ha ocurrido. Y más allá de eso, las mejores descripciones que he podido encontrar dicen que los programadores esencialmente adivinaron montones y montones de posibles cambios modestos, probaron sus conjeturas, y retuvieron lo que funcionó y desecharon lo que falló, sin saber realmente por qué algunos funcionaron y otros fallaron. Y, sí, eso implica que, en su mayor parte, los programadores no pueden responder a la pregunta "¿por qué funcionó esa opción? ¿Por qué falló esa otra opción? Y también implica que cada nueva versión de GPT se debió a una combinación de cambios modestos que sumados supusieron ganancias muy significativas en periodos de tiempo muy cortos. Pero sea cual sea la lógica/teoría/explicación del reciente éxito y progreso de la IA, lo que sí sabemos es que el progreso de los resultados a nivel humano no sólo ha sido sorprendente, sino que se ha acelerado.

Cuando la IA hace lo que hace, ¿lo hace de la forma en que lo hacemos nosotros?

En la mayoría de los casos, la antigua IA intentaba incorporar explícitamente en sus entrañas las lecciones que le transmitían los humanos a los que se consultaba sobre sus métodos en ámbitos específicos -por ejemplo, jugar al ajedrez, diagnosticar determinados síntomas médicos o lo que fuera-. Luego, los conocimientos que los programadores habían obtenido al hablar con expertos eran almacenados por los ingenieros en una base de datos que la IA consultaba cuando se le pedía que realizara alguna tarea relacionada. En cambio, las nuevas IA "examinan" primero (se enfocan en) enormes conjuntos de datos para llegar por sí mismas a disposiciones internas de su amplia gama de parámetros. La disposición resultante de los números permite alcanzar diversos fines. Resulta, por lo tanto, que cuando transmitimos una petición a una IA estamos conversando con un conjunto increíblemente inmenso de números que, a su vez, actúan sobre números que ingresan para producir números de salida. ¿Es así como hablamos?

Bueno, hay un problema para responder decididamente a esa pregunta. Prácticamente, no sabemos cómo los humanos producimos frases y mucho menos llegamos a puntos de vista, decisiones, etc. Sabemos mucho y probablemente la mayor parte de lo que ocurre en nosotros sucede de forma preconsciente. Tampoco sabemos cómo la IA llega a sus opiniones, decisiones, etc. Sabemos que las IA actuales utilizan redes neuronales y que han sido entrenadas con cantidades masivas de datos para establecer innumerables parámetros, y que luego también han contado con programadores humanos para establecer algunos parámetros adicionales por ensayo y error, pero más allá de eso no sabemos casi nada de "por qué" lo hace bien. Lo que sí sabemos es que, sea cual sea la lógica subyacente, la IA está realizando diversos tipos de tareas con resultados cada vez más parecidos a los humanos.

Entonces, ¿lo que hace la IA lo está haciendo de la misma manera que nosotros? La respuesta más probable es que no. Puede que en algunos aspectos haya analogías, si es que hay tanta similitud. Y la diferencia es de considerable interés científico porque sugiere claramente que la comprensión científica de las IA aportará poca o ninguna comprensión científica de los humanos. Pero para la IA como ingeniería, todo esto del "por qué" tiene mucha menos importancia. El "cómo sucede" o el "por qué funciona" no es el punto central de la IA como ingeniería. Lo importante es "lo qué ocurre". Y aunque el "cómo sucede" de la IA no se parece mucho o nada al de los humanos, el "qué sucede" de la IA se parece mucho al de los humanos.

Entonces, ¿puede la IA hacer lo que hace tan bien o mejor que nosotros? Si puede hacer las cosas mejor que los humanos, ¿cuánto mejor?

A juzgar por las pruebas objetivas de la práctica actual de la IA, la respuesta es que sí, ya que las IA pueden hacer muchas tareas tan bien o mejor que los humanos. De hecho, las IA no solo pueden hacer muchas cosas mucho más rápido que nosotros, sino también cualitativamente mejor. ¿Cuántos humanos pueden crear imágenes, componer música, leer y resumir informes, y escribir y programar mejor de lo que lo hacen las IA actuales? Muy pocos. ¿Comete errores la IA actual? Sin duda, y muchos. Pero los humanos también cometen errores. Y en cualquier caso, lo que importa es su trayectoria. Las anécdotas sobre errores extraños resultan divertidas. Las evaluaciones del año que viene son harina de otro costal.

GPT-2 no habría reconocido la diferencia entre un examen de abogacía y una escoba. GPT-3 tomó un examen de abogacía y puntuó en el 10% más bajo. Muchos errores. Un año después, el GPT 4 se situó en el 10% superior. Muchos menos errores. Ver la trayectoria no el tiro a un monumento. Y esto no se comparó con humanos desconocidos tomados de la calle. Se comparó con estudiantes de derecho. ¿Qué puntuación crees que obtendrá el GPT-5 el año que viene? ¿Qué ocurrirá con su número de errores, por muchos que siga cometiendo, cuando a tiro de piedra una red neuronal envíe rutinariamente los resultados a una segunda para que los compruebe, y entonces la primera corrija los errores comunicados por la segunda antes de entregarnos sus resultados? ¿Será mejor que el 99% de los estudiantes de Derecho? ¿Desaparecerán todos los errores tontos y fácilmente verificables?

Por otra parte, los expertos señalan que la IA no entiende las respuestas a las preguntas de los tribunales examinadores como lo hacen los estudiantes de Derecho. Y dependiendo de lo que entendamos por la palabra "entender", podría decirse que la IA no entiende ninguna de las respuestas que da. Esto es cierto, pero ¿apostarías por la IA o por un estudiante al azar o incluso por un graduado de la facultad de Derecho al azar para obtener una mejor puntuación? Y no es por machacar a los académicos, pero, en realidad, ¿qué significa "entender"?

Una observación técnica más general, pero relacionada, es que GPT-4 no contiene una "teoría del lenguaje" como la que reside en los cerebros humanos. GPT-4 simplemente contiene una enorme cantidad de parámetros que dan resultados similares a los de una teoría perfecta del lenguaje. Produce textos gramaticalmente correctos y convincentes. ¿Qué significa "entender"? ¿Y tiene la IA una "teoría del lenguaje" aunque su "teoría" esté oculta entre un billón de números? Los humanos tampoco tenemos una "teoría del lenguaje", salvo que esté oculta en lo más profundo de nuestro ser.

Ahora enfoquémonos en lo que importa en cuanto a política. ¿Cuáles son las consecuencias a corto y largo plazo que ya se están produciendo o que, sin regulación, es muy probable que se produzcan? ¿Qué es potencialmente bueno? ¿Qué es probablemente malo?

En primer lugar, debo reconocer que hay una gran incógnita que se cierne sobre todo este ensayo y sobre cómo evaluar la IA. Es decir, ¿seguirá haciéndose más "inteligente" o chocará contra un muro? ¿Más nodos, más números y más alteraciones inteligentes reducirán los errores y producirán cada vez más funcionalidad, o llegará un punto en el enfoque de las redes neuronales -quizás incluso pronto- en el que el aumento de los números encuentre rendimientos decrecientes? No sabemos lo que nos espera, porque depende de hasta qué punto las IA sigan haciéndose más potentes.

Entonces, ¿qué es potencialmente bueno y qué es probablemente malo a cerca de la IA? En un extremo, y a largo plazo (que algunos dicen es cuestión de sólo una década o dos, o incluso menos), escuchamos predicciones de horror sobre la IA, provenientes de miles de ingenieros, científicos e incluso funcionarios que trabajan con IA, que la programan y que de alguna manera la utilicen o produzcan y que, para el caso, hicieron los grandes avances, esclavizando o acabando con la humanidad. En el otro extremo, de personas igualmente informadas, implicadas e incorporadas, escuchamos hablar de que la IA creará una utopía virtual en la Tierra al crear curas para todo, desde el cáncer a la demencia, pasando por quién sabe qué, además de eliminar el trabajo pesado y facilitar así una mayor creatividad humana. A veces, de hecho, sospecho que bastante a menudo, la misma persona, por ejemplo, el director general de OpenAI, declara que ambos resultados son posibles y que tenemos que encontrar la manera de obtener sólo el resultado positivo.

A corto plazo, nosotros mismos podemos ver fácilmente posibilidades de grabaciones de voz falsas e imágenes y vídeos falsos inundando no sólo las redes sociales, sino también los principales medios de comunicación, los medios alternativos e incluso los procedimientos judiciales. Es decir, podemos ver posibilidades de fraude intencionado masivo y extendido, manipulación individual o en masa, vigilancia intensa masiva y nuevas formas de violencia, todo ello controlado por las IA que, a su vez, están controladas por corporaciones que buscan beneficios (pensemos en Facebook...), por gobiernos que buscan control y poder (piensen en su propio gobierno...), pero también incluso por entidades particulares a menor escala (pensemos en los Proud Boys o incluso en individuos desagradables...) que buscan diversión en el caos o la ventaja grupal o personal. Si una IA puede ayudar a encontrar un compuesto químico para curar el cáncer, no hay duda de que también puede encontrar uno para matar a la gente con gran eficacia.

Y luego está la cuestión de los puestos de trabajo. Todo parece indicar que la IA puede o pronto será capaz de realizar muchas tareas en lugar de los humanos que ahora las hacen o, como mínimo, podrá aumentar drásticamente la productividad de los humanos que ahora las hacen. El lado bueno de todo esto es que se obtendrá un rendimiento económico similar con menos horas de trabajo, lo que permitirá, por ejemplo, acortar la semana laboral con ingresos completos para todos, o incluso con ingresos más equitativos. El lado malo es que, en lugar de asignar menos trabajo, además de ingresos completos a todos, las empresas mantendrán a algunos empleados trabajando tanto como ahora, pero con el doble de producción, les pagarán ingresos reducidos y enviarán al resto a la fila de los desempleados.

Tomemos en cuenta, como uno de tantos ejemplos, que en los Estados Unidos hay aproximadamente 400 000 asistentes legales. Supongamos que en 2024 la IA permita a cada asistente realizar el doble de trabajo por hora que antes de utilizarla. Supongamos que en 2023 los asistentes legales trabajan 50 horas a la semana. En 2024, ¿los bufetes de abogados los retendrán a todos, mantendrán su salario íntegro y harán que cada uno trabaje 25 horas a la semana? ¿O los bufetes retendrán a la mitad de ellos, les mantendrán las 50 horas semanales y el salario íntegro, y despedirán a la otra mitad? Y luego, con 200 000 asistentes legales desempleados que buscan trabajo, el poder de negociación de los que todavía tienen un empleo se reducirá debido a su temor a ser sustituidos, ¿los bufetes de abogados reducirán aún más el salario y aumentarán el rendimiento exigido y la semana laboral de los retenidos, mientras despiden a más asistentes legales? Sin una normativa eficaz ni cambios en el sistema, el beneficio económico se impondrá, y ya conocemos el resultado. Y no se trata sólo de los asistentes legales, por supuesto. La IA puede ofrecer asistentes personales para educar, prestar servicios de guardería, diagnosticar y medicar, redactar manuales, manejar la correspondencia, hacer y entregar pedidos de productos, componer música, cantar, escribir historias, crear películas e incluso diseñar edificios. Sin regulaciones vigorosas, si el beneficio económico impera, ¿hay alguna duda sobre si la IA traería la utopía o impondría la distopía?

La enumeración anterior podría nunca terminar. Increíblemente, en la última semana, y que yo sepa ni siquiera se había contemplado un mes antes, ya existe una empresa que entrena la IA en funciones directivas, financieras, de elaboración de políticas, etcétera. O, si no la hay, ¿podría haberla la semana que viene?

Antes de dejar de adivinar el futuro, también podríamos considerar algunas consecuencias imprevistas de intentar hacer el bien con la IA. En el peor de los casos, ¿cuál será el impacto de que la IA realice tareas que nos gustaría que hiciera, pero que forman parte integral de nuestra condición de seres humanos? Supongamos incluso que realiza estas funciones tan bien como nosotros, en lugar de hacerlas lo suficientemente bien como para que a las empresas les resulte rentable utilizarlas en nuestro lugar.

¿Guarderías? ¿Atención a personas mayores? ¿Asesoramiento psicológico y médico? ¿Planificar nuestras propias agendas diarias? ¿Enseñar? ¿Cocinar? ¿Conversaciones íntimas? Si las IA hacen estas cosas, ¿qué ocurre con nuestra capacidad para hacerlas? Si las IA nos desplazan de esas actividades tan humanas, ¿se están convirtiendo en personas o nosotros en máquinas?

Intenten conversar incluso con las IA actuales. Apuesto a que en poco tiempo dejaran de referirse a ellas como "eso" y pasaran a referirse a ellas como "él" o "ella", o por su nombre. Ahora imaginen que las IA se encargan de enseñar, aconsejar, cuidar, establecer la agenda, dibujar, diseñar, medicar, etc., ¿y ustedes qué hacen? Liberados de responsabilidades, ven las películas que hace la IA. Comen lo que AI prepara. Leen historias que AI escribe. Realizan las diligencias que la AI organiza. Supongamos que los ingresos se gestionan bien, que el trabajo restante para los humanos se asigna bien. Si quieren algo, se lo piden a una IA. Éxtasis. Y si el desarrollo de la IA no choca contra un muro, este es el escenario utópico beneficioso.

¿Cuál es una respuesta sensata a las posibilidades a corto y largo plazo?

Los seres humanos tenemos a nuestra disposición algo llamado "principio de precaución". Propuesto por primera vez como guía para la toma de decisiones medioambientales, nos dice cómo debemos abordar las innovaciones que tienen potencial para causar grandes daños. El principio hace hincapié en la precaución. Indica que hay que detenerse y revisar antes de aventurarse a innovaciones que pueden resultar desastrosas. Manifiesta que hay que tomar medidas preventivas ante la incertidumbre. Traslada el peso de la prueba a quienes proponen una actividad arriesgada. Indica que hay que explorar una amplia gama de alternativas a las acciones posiblemente perjudiciales. Incrementar la participación pública en la toma de decisiones. En resumidas cuentas, hay que ser precavido.

Así que, me parece que ya tenemos la respuesta. Una respuesta sensata a la aparición de una IA cada vez más potente es pisar el freno. Fuerte. Imponer una moratoria. Luego, durante el paréntesis, establecer mecanismos de regulación, normas y medios de aplicación capaces de prevenir los peligros, así como de beneficiarse provechosamente de las posibilidades. Esto es fácil de decir, pero en nuestro mundo es difícil de hacer. En nuestro mundo, los propietarios e inversores buscan beneficios sin tener en cuenta las enormes implicaciones para los demás. Empujados por la competencia del mercado y por agendas a corto plazo, avanzan a toda velocidad. Sus pies evitan los frenos. Pisan a fondo el acelerador. Es un viaje suicida. Sin embargo, lo que es inusual e indicativo de la gravedad de la situación, cientos e incluso miles de actores centrales dentro de las empresas de IA están lo bastante preocupados/temerosos como para emitir advertencias. Y, aun así, sabemos que es poco probable que los mercados escuchen sus advertencias. Los inversores murmurarán sobre el riesgo y la seguridad, pero seguirán adelante.

Entonces, ¿podemos ganar tiempo y actuar con precaución antes de que las corporaciones suicidas den el salto? Si queremos que las necesidades humanas sustituyan a la locura competitiva y lucrativa de las empresas en lo que respecta al desarrollo y despliegue de la IA, los que tenemos la cabeza bien amueblada tendremos que exigir y presionar muy seriamente para conseguirlo.

 

Originalmente publicado en ZNet.

 

Michael Albert es cofundador de ZNet y Z Magazine.




Publicado por La Cuna del Sol

No hay comentarios.:

Publicar un comentario