La inteligencia artificial está aquí, allá y acullá. Los expertos hablan con elocuencia y a veces no tanto. Los vídeos de YouTube revelan secretos internos y posibilidades, y a veces cosas que no son tan internas, ni tan secretas, ni siquiera posibles.
INTELIGENCIA ARTIFICIAL (IA),
PREGUNTAS Y RESPUESTAS
Michael Albert
Counterpunch
La inteligencia artificial está
aquí, allá y acullá. Los expertos hablan con elocuencia y a veces no tanto. Los
vídeos de YouTube revelan secretos internos y posibilidades, y a veces cosas
que no son tan internas, ni tan secretas, ni siquiera posibles. La IA nos destruirá. La IA nos fortalecerá
rotundamente. ¿Cuáles son las preguntas que realmente importan? ¿Qué respuestas
podrían importar? Los debates se multiplican rápidamente, pero reina la
confusión.
Entre tanto ruido, he aquí algunas cuestiones
que parecen fundamentales.
+ ¿A qué viene tanto alboroto? ¿Qué puede
hacer la IA de hoy que no pudiera hacer la de ayer?
+ Aunque sólo sea a grandes rasgos, ¿cómo
funciona la nueva IA? Si no es magia, ¿qué es?
+ Cuando la IA hace cosas que nosotros
hacemos, ¿las hace como las hacemos nosotros?
+ ¿Puede la IA hacer cosas que nosotros
hacemos tan bien o mejor que nosotros?
+ Cuando la IA puede hacer cosas mejor de lo que
nosotros los humanos lo hacemos, ¿cuánto mejor puede hacerlo?
+ Y, sobre todo, ¿cuáles son las
consecuencias importantes a corto plazo del progreso de la IA? ¿Cuáles son las
posibilidades a largo plazo del progreso de la IA? ¿Y cómo deberían responder a
la IA los defensores de un cambio social progresista o revolucionario?
Si usted conoce todas las respuestas, felicitaciones,
es la única persona del planeta que las conoce. Pero, a pesar del estado de
ignorancia y de incertidumbre, ¿podemos decir algo al menos con cierta
seguridad? Vayamos por partes.
¿Por qué tanto alboroto? ¿Qué puede hacer
ahora la IA que no pudiera hacer antes?
La respuesta breve sería, mucho. Antes -digamos hace dos décadas- las máquinas no invadían
demasiado terrenos que normalmente sólo pisaban los humanos. Bueno, un momento.
Las máquinas jugaban juegos como el ajedrez y el go. Y podían actuar como
expertos mediocres en algunos temas muy específicos. Pero dos décadas después,
y sobre todo en los últimos seis años, y abrumadoramente en los últimos tres
años, y en realidad incluso justo en el último año, y -mientras escribo-
incluso justo en el último mes o semana, las máquinas pintan cuadros, componen
música, diagnostican enfermedades e investigan y preparan dictámenes jurídicos.
Escriben manuales técnicos, noticias, ensayos, cuentos (e incluso novelas...).
Las máquinas codifican software, diseñan edificios y aprueban exámenes
increíblemente diversos. Ahora mismo, en la mayoría de los estados, las
máquinas podrían convertirse en abogados. Por lo que sé, probablemente también hayan
aprobado exámenes de medicina. Las máquinas ofrecen asesoramiento en salud
mental, cuidado de ancianos, apoyo personal e incluso compañía íntima. Las
máquinas conversan. Encuentran patrones. Resuelven problemas complejos (como el
plegamiento de proteínas). Y desde esta semana, colaboran e incluso pueden
hacerse peticiones unas a otras. Y mucho más.
Entonces, ¿eso es todo a lo que nos referimos
cuando hablamos de IA? Sí, porque lo que suele calificarse de inteligencia
artificial son máquinas que hacen cosas que los humanos hacemos con el cerebro.
Son máquinas que hacen cosas que nosotros hacemos mentalmente o, para usar una
palabra más elegante, que hacemos cognitivamente. Y la sorpresa es que la IA de
hoy, y ni hablar la de mañana, no solamente hace cosas mentales de forma
rudimentaria. No. Incluso la IA de hoy, ni hablar la de la semana que viene, o la
del año que viene, hace muchas cosas mentales tan bien y en algunos aspectos
significativos no solo cientos de veces más rápido sino también
cualitativamente mejor que casi todos los humanos hacen estas cosas. Y en
algunos casos, con más por venir, mejor de lo que cualquier humano hace o
incluso hará alguna vez estas cosas. ¿Recuerdan la gran noticia que fue cuando un
programa informático derrotó a Garry Kasparov, el entonces
Campeón del Mundo de Ajedrez en 1997? Pues bien, el programa que le derrotó
sería aniquilado por la IA actual, y lo mismo ocurre con otros juegos. La brecha
entre los mejores jugadores del mundo de ajedrez, go, póquer e incluso
videojuegos y la mejor IA de cada uno de esos juegos se ha hecho enorme. Y este
diferencial no se limita a los juegos.
Aunque sólo sea a grandes rasgos, ¿cómo
funciona la nueva IA? Si no es magia, ¿qué es?
Puede que les cueste creerlo, pero más allá
de algunas observaciones limitadas, las mejores fuentes que he podido encontrar
afirman que nadie puede responder plenamente a esta pregunta. Y me refiero a
nadie. Por ejemplo, las IA que han sido entrenadas en inglés para leer,
escribir y conversar, utilizar, como todos hemos oído, "redes
neuronales" entrenadas básicamente con tantos datos como sea posible
utilizar, que resultan ser millones de libros y casi todo lo que hay en Internet.
Una vez entrenadas, estas IA generan la siguiente palabra, y luego la
siguiente, y así sucesivamente, para satisfacer acumulativamente las peticiones
que se les hacen por una respuesta escrita, o gráfica, o de otro tipo. Cada
paso que da la IA implica un enorme número de cálculos. Según algunas
estimaciones, la red neuronal entrenada más actualizada, la GPT-4, incluye unos
150 billones de números, o pesos, cada uno de ellos asociado a conexiones entre
nodos que están vagamente modelados a partir de las neuronas que se encuentran
en los cerebros orgánicos. Supongo que esa cifra, 150 billones, es una
exageración provocadora que surgió de algún periodista indiscreto y que luego
se convirtió en falso evangelio, pero, aun así, podemos estar bastante seguros
de que la cifra verdadera, aún no publicada, es increíblemente alta. Sea cual
sea la cantidad de números que caracterizan a GPT-4, están ahí para actuar
sobre las entradas, es decir, para actuar sobre la petición que se hace a la
IA, petición que a su vez se traduce primero en números. Esta
"actuación" produce a su vez resultados numéricos que la IA traduce a
su vez en textos (o imágenes o melodías o cualquier otra cosa) que recibimos.
En medio de todo ese cálculo, y de nuevo a través de las mejores fuentes, se
establecen varios parámetros y características adicionales esencialmente por
ensayo y error.
Sí, ensayo y error. En otras palabras, los
ingenieros no pasaron de GPT-2 en 2019, a GPT-3 en 2020, a GPT-3.5 en 2022, a
GPT-4 meses después, en 2023, teniendo una teoría cada vez más enriquecida del
funcionamiento de su producto y haciendo grandes cambios guiados por esa
teoría. No. En lugar de eso, por un lado, los ingenieros simplemente ampliaron
la red neuronal, aumentando su número de nodos y parámetros y observando si eso
mejoraba los resultados, cosa que, hasta ahora, ha ocurrido. Y más allá de eso,
las mejores descripciones que he podido encontrar dicen que los programadores
esencialmente adivinaron montones y montones de posibles cambios modestos,
probaron sus conjeturas, y retuvieron lo que funcionó y desecharon lo que falló,
sin saber realmente por qué algunos funcionaron y otros fallaron. Y, sí, eso
implica que, en su mayor parte, los programadores no pueden responder a la
pregunta "¿por qué funcionó esa opción? ¿Por qué falló esa otra opción? Y
también implica que cada nueva versión de GPT se debió a una combinación de
cambios modestos que sumados supusieron ganancias muy significativas en
periodos de tiempo muy cortos. Pero sea cual sea la lógica/teoría/explicación
del reciente éxito y progreso de la IA, lo que sí sabemos es que el progreso de
los resultados a nivel humano no sólo ha sido sorprendente, sino que se ha
acelerado.
Cuando la IA hace lo que hace, ¿lo hace de la
forma en que lo hacemos nosotros?
En la mayoría de los casos, la antigua IA
intentaba incorporar explícitamente en sus entrañas las lecciones que le
transmitían los humanos a los que se consultaba sobre sus métodos en ámbitos
específicos -por ejemplo, jugar al ajedrez, diagnosticar determinados síntomas
médicos o lo que fuera-. Luego, los conocimientos que los programadores habían
obtenido al hablar con expertos eran almacenados por los ingenieros en una base
de datos que la IA consultaba cuando se le pedía que realizara alguna tarea
relacionada. En cambio, las nuevas IA "examinan" primero (se enfocan
en) enormes conjuntos de datos para llegar por sí mismas a disposiciones
internas de su amplia gama de parámetros. La disposición resultante de los
números permite alcanzar diversos fines. Resulta, por lo tanto, que cuando
transmitimos una petición a una IA estamos conversando con un conjunto
increíblemente inmenso de números que, a su vez, actúan sobre números que ingresan
para producir números de salida. ¿Es así como hablamos?
Bueno, hay un problema para responder decididamente
a esa pregunta. Prácticamente, no sabemos cómo los humanos producimos frases y
mucho menos llegamos a puntos de vista, decisiones, etc. Sabemos mucho y
probablemente la mayor parte de lo que ocurre en nosotros sucede de forma
preconsciente. Tampoco sabemos cómo la IA llega a sus opiniones, decisiones,
etc. Sabemos que las IA actuales utilizan redes neuronales y que han sido
entrenadas con cantidades masivas de datos para establecer innumerables
parámetros, y que luego también han contado con programadores humanos para
establecer algunos parámetros adicionales por ensayo y error, pero más allá de
eso no sabemos casi nada de "por qué" lo hace bien. Lo que sí sabemos
es que, sea cual sea la lógica subyacente, la IA está realizando diversos tipos
de tareas con resultados cada vez más parecidos a los humanos.
Entonces, ¿lo que hace la IA lo está haciendo
de la misma manera que nosotros? La respuesta más probable es que no. Puede que
en algunos aspectos haya analogías, si es que hay tanta similitud. Y la
diferencia es de considerable interés científico porque sugiere claramente que
la comprensión científica de las IA aportará poca o ninguna comprensión
científica de los humanos. Pero para la IA como ingeniería, todo esto del
"por qué" tiene mucha menos importancia. El "cómo sucede" o
el "por qué funciona" no es el punto central de la IA como
ingeniería. Lo importante es "lo qué ocurre". Y aunque el "cómo
sucede" de la IA no se parece mucho o nada al de los humanos, el "qué
sucede" de la IA se parece mucho al de los humanos.
Entonces, ¿puede la IA hacer lo que hace tan
bien o mejor que nosotros? Si puede hacer las cosas mejor que los humanos,
¿cuánto mejor?
GPT-2 no habría reconocido la diferencia
entre un examen de abogacía y una escoba. GPT-3 tomó un
examen de abogacía y puntuó en el 10% más bajo. Muchos
errores. Un año después, el GPT 4 se situó en el 10% superior. Muchos menos
errores. Ver la trayectoria no el tiro a un monumento. Y esto no se comparó con
humanos desconocidos tomados de la calle. Se comparó con estudiantes de
derecho. ¿Qué puntuación crees que obtendrá el GPT-5 el año que viene? ¿Qué
ocurrirá con su número de errores, por muchos que siga cometiendo, cuando a tiro
de piedra una red neuronal envíe rutinariamente los resultados a una segunda
para que los compruebe, y entonces la primera corrija los errores comunicados
por la segunda antes de entregarnos sus resultados? ¿Será mejor que el 99% de
los estudiantes de Derecho? ¿Desaparecerán todos los errores tontos y
fácilmente verificables?
Por otra parte, los expertos señalan que la
IA no entiende las respuestas a las preguntas de los tribunales examinadores
como lo hacen los estudiantes de Derecho. Y dependiendo de lo que entendamos
por la palabra "entender", podría decirse que la IA no entiende
ninguna de las respuestas que da. Esto es cierto, pero ¿apostarías por la IA o
por un estudiante al azar o incluso por un graduado de la facultad de Derecho
al azar para obtener una mejor puntuación? Y no es por machacar a los
académicos, pero, en realidad, ¿qué significa "entender"?
Una observación técnica más general, pero
relacionada, es que GPT-4 no contiene una "teoría del lenguaje" como
la que reside en los cerebros humanos. GPT-4 simplemente contiene una enorme
cantidad de parámetros que dan resultados similares a los de una teoría
perfecta del lenguaje. Produce textos gramaticalmente correctos y convincentes.
¿Qué significa "entender"? ¿Y tiene la IA una "teoría del
lenguaje" aunque su "teoría" esté oculta entre un billón de
números? Los humanos tampoco tenemos una "teoría del lenguaje", salvo
que esté oculta en lo más profundo de nuestro ser.
Ahora enfoquémonos en lo que importa en
cuanto a política. ¿Cuáles son las consecuencias a corto y largo plazo que ya
se están produciendo o que, sin regulación, es muy probable que se produzcan? ¿Qué
es potencialmente bueno? ¿Qué es probablemente malo?
En primer lugar, debo reconocer que hay una
gran incógnita que se cierne sobre todo este ensayo y sobre cómo evaluar la IA.
Es decir, ¿seguirá haciéndose más "inteligente" o chocará contra un
muro? ¿Más nodos, más números y más alteraciones inteligentes reducirán los
errores y producirán cada vez más funcionalidad, o llegará un punto en el
enfoque de las redes neuronales -quizás incluso pronto- en el que el aumento de
los números encuentre rendimientos decrecientes? No sabemos lo que nos espera,
porque depende de hasta qué punto las IA sigan haciéndose más potentes.
Entonces, ¿qué es potencialmente bueno y qué
es probablemente malo a cerca de la IA? En un extremo, y a largo plazo (que
algunos dicen es cuestión de sólo una década o dos, o incluso menos), escuchamos
predicciones de horror sobre la IA, provenientes de miles de ingenieros,
científicos e incluso funcionarios que trabajan con IA, que la programan y que de
alguna manera la utilicen o produzcan y que, para el caso, hicieron los grandes
avances, esclavizando o acabando con la humanidad. En el otro extremo, de
personas igualmente informadas, implicadas e incorporadas, escuchamos hablar de
que la IA creará una utopía virtual en la Tierra al crear curas para todo,
desde el cáncer a la demencia, pasando por quién sabe qué, además de eliminar
el trabajo pesado y facilitar así una mayor creatividad humana. A veces, de
hecho, sospecho que bastante a menudo, la misma persona, por ejemplo, el
director general de OpenAI, declara que ambos resultados son posibles y que
tenemos que encontrar la manera de obtener sólo el resultado positivo.
A corto plazo, nosotros mismos podemos ver
fácilmente posibilidades de grabaciones de voz falsas e imágenes y vídeos
falsos inundando no sólo las redes sociales, sino también los principales
medios de comunicación, los medios alternativos e incluso los procedimientos
judiciales. Es decir, podemos ver posibilidades de fraude intencionado masivo y
extendido, manipulación individual o en masa, vigilancia intensa masiva y
nuevas formas de violencia, todo ello controlado por las IA que, a su vez,
están controladas por corporaciones que buscan beneficios (pensemos en
Facebook...), por gobiernos que buscan control y poder (piensen en su propio
gobierno...), pero también incluso por entidades particulares a menor escala (pensemos
en los Proud Boys o incluso en individuos desagradables...) que buscan diversión
en el caos o la ventaja grupal o personal. Si una IA puede ayudar a encontrar
un compuesto químico para curar el cáncer, no hay duda de que también puede
encontrar uno para matar a la gente con gran eficacia.
Y luego está la cuestión de los puestos de
trabajo. Todo parece indicar que la IA puede o pronto será capaz de realizar
muchas tareas en lugar de los humanos que ahora las hacen o, como mínimo, podrá
aumentar drásticamente la productividad de los humanos que ahora las hacen. El
lado bueno de todo esto es que se obtendrá un rendimiento económico similar con
menos horas de trabajo, lo que permitirá, por ejemplo, acortar la semana
laboral con ingresos completos para todos, o incluso con ingresos más
equitativos. El lado malo es que, en lugar de asignar menos trabajo, además de
ingresos completos a todos, las empresas mantendrán a algunos empleados
trabajando tanto como ahora, pero con el doble de producción, les pagarán
ingresos reducidos y enviarán al resto a la fila de los desempleados.
Tomemos en cuenta, como uno de tantos
ejemplos, que en los Estados Unidos hay aproximadamente 400 000 asistentes
legales. Supongamos que en 2024 la IA permita a cada asistente realizar el
doble de trabajo por hora que antes de utilizarla. Supongamos que en 2023 los
asistentes legales trabajan 50 horas a la semana. En 2024, ¿los bufetes de
abogados los retendrán a todos, mantendrán su salario íntegro y harán que cada
uno trabaje 25 horas a la semana? ¿O los bufetes retendrán a la mitad de ellos,
les mantendrán las 50 horas semanales y el salario íntegro, y despedirán a la
otra mitad? Y luego, con 200 000 asistentes legales desempleados que buscan
trabajo, el poder de negociación de los que todavía tienen un empleo se
reducirá debido a su temor a ser sustituidos, ¿los bufetes de abogados reducirán
aún más el salario y aumentarán el rendimiento exigido y la
semana laboral de los retenidos, mientras despiden a más asistentes legales?
Sin una normativa eficaz ni cambios en el sistema, el beneficio económico se
impondrá, y ya conocemos el resultado. Y no se trata sólo de los asistentes legales,
por supuesto. La IA puede ofrecer asistentes personales para educar, prestar
servicios de guardería, diagnosticar y medicar, redactar manuales, manejar la
correspondencia, hacer y entregar pedidos de productos, componer música,
cantar, escribir historias, crear películas e incluso diseñar edificios. Sin
regulaciones vigorosas, si el beneficio económico impera, ¿hay alguna duda
sobre si la IA traería la utopía o impondría la distopía?
La enumeración anterior podría nunca terminar.
Increíblemente, en la última semana, y que yo sepa ni siquiera se había
contemplado un mes antes, ya existe una empresa que entrena la IA en funciones
directivas, financieras, de elaboración de políticas, etcétera. O, si no la
hay, ¿podría haberla la semana que viene?
Antes de dejar de adivinar el futuro, también
podríamos considerar algunas consecuencias imprevistas de intentar hacer el
bien con la IA. En el peor de los casos, ¿cuál será el impacto de que la IA
realice tareas que nos gustaría que hiciera, pero que forman parte integral de
nuestra condición de seres humanos? Supongamos incluso que realiza estas
funciones tan bien como nosotros, en lugar de hacerlas lo suficientemente bien
como para que a las empresas les resulte rentable utilizarlas en nuestro lugar.
¿Guarderías? ¿Atención a personas mayores?
¿Asesoramiento psicológico y médico? ¿Planificar nuestras propias agendas
diarias? ¿Enseñar? ¿Cocinar? ¿Conversaciones íntimas? Si las IA hacen estas
cosas, ¿qué ocurre con nuestra capacidad para hacerlas? Si las IA nos desplazan
de esas actividades tan humanas, ¿se están convirtiendo en personas o nosotros
en máquinas?
Intenten conversar incluso con las IA
actuales. Apuesto a que en poco tiempo dejaran de referirse a ellas como
"eso" y pasaran a referirse a ellas como "él" o "ella",
o por su nombre. Ahora imaginen que las IA se encargan de enseñar, aconsejar,
cuidar, establecer la agenda, dibujar, diseñar, medicar, etc., ¿y ustedes qué
hacen? Liberados de responsabilidades, ven las películas que hace la IA. Comen
lo que AI prepara. Leen historias que AI escribe. Realizan las diligencias que
la AI organiza. Supongamos que los ingresos se gestionan bien, que el trabajo
restante para los humanos se asigna bien. Si quieren algo, se lo piden a una
IA. Éxtasis. Y si el desarrollo de la IA no choca contra un muro, este es el
escenario utópico beneficioso.
¿Cuál es una respuesta sensata a las
posibilidades a corto y largo plazo?
Los seres humanos tenemos a nuestra
disposición algo llamado "principio de precaución". Propuesto por
primera vez como guía para la toma de decisiones medioambientales, nos dice
cómo debemos abordar las innovaciones que tienen potencial para causar grandes
daños. El principio hace hincapié en la precaución. Indica que hay que
detenerse y revisar antes de aventurarse a innovaciones que pueden resultar
desastrosas. Manifiesta que hay que tomar medidas preventivas ante la
incertidumbre. Traslada el peso de la prueba a quienes proponen una actividad
arriesgada. Indica que hay que explorar una amplia gama de alternativas a las
acciones posiblemente perjudiciales. Incrementar la participación pública en la
toma de decisiones. En resumidas cuentas, hay que ser precavido.
Así que, me parece que ya tenemos la
respuesta. Una respuesta sensata a la aparición de una IA cada vez más potente
es pisar el freno. Fuerte. Imponer una moratoria. Luego, durante el paréntesis,
establecer mecanismos de regulación, normas y medios de aplicación capaces de
prevenir los peligros, así como de beneficiarse provechosamente de las posibilidades.
Esto es fácil de decir, pero en nuestro mundo es difícil de hacer. En nuestro
mundo, los propietarios e inversores buscan beneficios sin tener en cuenta las enormes
implicaciones para los demás. Empujados por la competencia del mercado y por
agendas a corto plazo, avanzan a toda velocidad. Sus pies evitan los frenos.
Pisan a fondo el acelerador. Es un viaje suicida. Sin embargo, lo que es
inusual e indicativo de la gravedad de la situación, cientos e incluso miles de
actores centrales dentro de las empresas de IA están lo bastante
preocupados/temerosos como para emitir advertencias. Y, aun así, sabemos que es
poco probable que los mercados escuchen sus advertencias. Los inversores
murmurarán sobre el riesgo y la seguridad, pero seguirán adelante.
Entonces, ¿podemos ganar tiempo y actuar con
precaución antes de que las corporaciones suicidas den el salto? Si queremos
que las necesidades humanas sustituyan a la locura competitiva y lucrativa de
las empresas en lo que respecta al desarrollo y despliegue de la IA, los que
tenemos la cabeza bien amueblada tendremos que exigir y presionar muy
seriamente para conseguirlo.
Originalmente publicado en ZNet.
Michael Albert es cofundador de ZNet y Z
Magazine.
Publicado por La Cuna del Sol