El problema con el apocalipticismo de la IA
HogarHogar > Blog > El problema con el apocalipticismo de la IA

El problema con el apocalipticismo de la IA

Jul 13, 2023

El miedo de las élites a la inteligencia artificial revela una visión degradada de la humanidad.

La inteligencia artificial (IA) alguna vez fue un tema discreto discutido seriamente entre un grupo reducido de científicos informáticos. Pero no más. Ahora es el tema de un debate público casi diario y un montón de discursos catastróficos.

Esta misma semana, el Center for AI Safety, una ONG con sede en San Francisco, publicó una declaración en su página web en la que afirma que: "Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social, como pandemias y guerra nuclear.' Esta declaración apocalíptica ha sido respaldada por algunos de los nombres más importantes que trabajan en IA, incluido Sam Altman, director ejecutivo de OpenAI (la empresa detrás de ChatGPT), y Demis Hassabis, director ejecutivo de Google DeepMind.

No hay duda de que la IA es un gran avance tecnológico que realmente podría tener un impacto significativo en nuestras vidas. Pero la narrativa predominante que está surgiendo en torno a la IA va mucho más allá. Sobreestima enormemente su potencial actual e invariablemente saca conclusiones absurdamente distópicas. Como resultado, los asistentes de IA no conscientes, desde ChatGPT hasta Google Bard, ahora se consideran potencialmente capaces de sentir y desarrollar una inteligencia muy superior a la nuestra. Se supone que están a un paso de desarrollar una agencia independiente y de ejercer su propio juicio y voluntad.

Algunos entusiastas de la IA se han permitido disfrutar de vuelos utópicos de fantasía. Afirman que la IA podría estar a punto de curar el cáncer o solucionar el cambio climático. Pero muchos más, como lo atestigua la declaración del Centro para la Seguridad de la IA, han comenzado a especular sobre su potencial catastrófico. Afirman que la IA se volverá contra nosotros, sus creadores, y se convertirá en una amenaza real y mortal para el futuro de la civilización humana.

Al creer que la IA desarrollará su propio sentido de agencia, estos expertos en IA, junto con una variedad de expertos y políticos, se están entregando a una forma extrema de determinismo tecnológico. Es decir, asumen que solo el desarrollo tecnológico determina el desarrollo de la sociedad.

Los deterministas tecnológicos entienden las cosas al revés. Su narrativa ignora la forma en que la sociedad puede mediar y determinar el desarrollo tecnológico. Esas tecnologías que han florecido y cambiado la sociedad solo lo han hecho porque los seres humanos las han adoptado y luego las han adaptado a sus necesidades. A su vez, esas tecnologías, por rudimentarias que sean, han permitido a los humanos no solo satisfacer nuestras necesidades, sino también cultivar nuevas necesidades. Como escribió Karl Marx sobre la necesidad de comer: 'El hambre es hambre; pero el hambre que se satisface comiendo carne cocida con cuchillo y tenedor difiere del hambre que devora carne cruda con la ayuda de manos, uñas y dientes.'

La narrativa tecnológicamente determinista que se ha desarrollado en torno a la IA no solo ignora la forma en que la sociedad humana media el desarrollo tecnológico. También asume que los humanos son completamente impotentes ante el poder de las tecnologías emergentes. Los traficantes de miedo de la IA parecen pensar que la subjetividad humana ya no existe.

La narrativa apocalíptica de la IA ha surgido con una velocidad increíble. A fines de marzo, 50 científicos de inteligencia artificial generativa, incluidas figuras clave como el director ejecutivo de Twitter, Elon Musk, el cofundador de Apple, Steve Wozniak, e investigadores de la empresa de inteligencia artificial DeepMind, emitieron una carta pública a través del Future of Life Institute. Pidieron una interrupción temporal en el entrenamiento de los sistemas de IA, advirtiendo que corremos el riesgo de desarrollar y desplegar "mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable". En lo que a ellos respecta, corremos el peligro de crear una IA superinteligente que podría representar una amenaza existencial para la humanidad.

Su llamado a que se hiciera algo cobró impulso a principios de mayo cuando Altman, junto con los directores ejecutivos de Microsoft, Alphabet (el holding de Google) y Anthropic, se reunieron en la Casa Blanca para discutir las amenazas que plantea la IA con altos funcionarios estadounidenses. Luego, Altman compareció ante el Senado de los Estados Unidos el 16 de mayo, exigiendo que se regulara la IA. Y así se estableció la narrativa del fin del mundo.

Como siempre, es la Unión Europea la que ha liderado la prisa por regular. Su Proyecto de Ley de Inteligencia Artificial, propuesto inicialmente en abril de 2021, ya pasó su primera audiencia parlamentaria. Es probable que esta ley establezca el estándar para que otras legislaturas se reúnan, ya que el Reino Unido y los EE. UU. consideran la mejor manera de regular la IA.

Esta masa de posible legislación sobre IA, alimentada por una narrativa cada vez más apocalíptica y fatalista, refuerza la sensación de que realmente hay algo que temer, que se debe hacer algo para detener a la IA antes de que sea demasiado tarde.

Una de las intervenciones más significativas en este debate cada vez más febril provino del llamado Padrino de la IA, Geoffrey Hinton. A principios de mayo, renunció a Google, alegando que ahora lamenta su contribución al desarrollo de la IA.

Hinton ganó el equivalente a un Premio Nobel en informática en 2018 por su trabajo en redes neuronales de IA. Y, sin embargo, allí estuvo el mes pasado diciéndoles a varios medios de comunicación que las grandes empresas de tecnología se estaban moviendo demasiado rápido en la implementación de la IA al público. Afirmó que la IA estaba logrando capacidades similares a las humanas más rápido de lo que habían pronosticado los expertos. "Eso da miedo", le dijo al New York Times. Lo que realmente lo conmocionó fue 'la comprensión de que la inteligencia biológica y la inteligencia digital son muy diferentes, y la inteligencia digital es probablemente mucho mejor'. En otra parte, dijo al Financial Times que "es bastante concebible que la humanidad sea una fase pasajera en la evolución de la inteligencia". Y en caso de que no hayamos entendido el punto, pidió a los lectores que imaginaran "algo que sea más inteligente que nosotros en la misma medida en que somos más inteligentes que una rana". Cosas aterradoras, de hecho.

Hinton se está extralimitando aquí. Es un gran salto desde el desarrollo de algoritmos que intentan emular el cerebro humano hasta el desarrollo de una 'inteligencia digital' que supera a la 'inteligencia biológica'. Bien puede ser un genio cuando se trata de desarrollar inteligencia artificial, pero está vendiendo tonterías absolutas sobre la inteligencia humana.

Lamentablemente, las afirmaciones de Hinton y otros se repiten como la verdad indiscutible. El historiador, filósofo y autor de best-sellers Yuval Noah Harari afirma ahora que la IA generativa, como ChatGPT, ha "pirateado el sistema operativo de nuestra civilización". 'Cuando la IA piratea el lenguaje', advierte, 'podría destruir nuestra capacidad de tener conversaciones significativas, destruyendo así la democracia'. La activista antiglobalización Naomi Klein teme que las empresas más ricas de la historia se estén apoderando de la suma total del conocimiento humano y amurallándolo detrás de productos patentados. Mientras tanto, el economista del MIT Daron Acemoglu afirma que la IA "dañará el discurso político, el alma más fundamental de la democracia".

En medio de tanto pesimismo de expertos y comentaristas, ¿quién no estaría preocupado por la IA? Si hay que creerle a un segmento significativo de nuestras élites, estamos en la cúspide de un mundo similar a Terminator, donde una IA consciente está a punto de oprimir e incluso borrar a la humanidad.

Vale la pena preguntarse por qué personas tan inteligentes solo pueden imaginar lo peor cuando se trata de esta extraordinaria tecnología. ¿Por qué una inteligencia sobrehumana, si eso es lo que se está creando, buscaría destruirnos? ¿No intentaría un sistema de IA superar, en lugar de destruir, los logros de la civilización humana?

Esta visión fatalista y distópica de la IA tiene poco que ver con la tecnología en sí. Viene de la visión disminuida de nuestras élites de la agencia humana. Desde su perspectiva, las máquinas son agentes, mientras que los humanos son objetos pasivos. Esto refleja un malestar muy propio del siglo XXI, en el que se cree que los humanos están sujetos a fuerzas que están completamente fuera de nuestro control.

Las visiones distópicas que involucran robots antihumanos no son nada nuevo. La obra de 1920 del escritor checo Karel Čapek, RUR: Rossum's Universal Robots, presentó por primera vez la palabra 'robot' al mundo. Contó la historia de humanos artificiales (robots) que se rebelaron contra sus creadores humanos, lo que llevó a la extinción de la humanidad. La notable pieza de ciencia ficción expresionista de Fritz Lang, Metropolis, lanzada en 1927, también presenta un futuro en el que los robots tiranizan a los humanos, manipulan a las personas y mantienen el control sobre una sociedad altamente estratificada. Luego está la serie de novelas 'robot' de Isaac Asimov, comenzando con Yo, robot en 1950, que exploró las implicaciones de la robótica avanzada y el potencial de los robots para tomar el control de la sociedad humana.

Todas las oscuras visiones de estos escritores de un futuro inhumano, gobernado por una burocracia robótica, se basan profundamente en sus experiencias de matanza industrial durante la Primera y Segunda Guerra Mundial y el totalitarismo del fascismo y el estalinismo. Pero estos escritores y sus oscuras visiones fueron excepciones a una regla más general. Por oscuros que fueran sus tiempos, vivían en sociedades en las que todavía se esperaba que las personas asumieran la responsabilidad del futuro. Todavía existía la sensación de que las personas podían aprovechar los avances tecnológicos para forjar un mundo mejor.

De hecho, se puede encontrar una visión muy diferente del futuro en la magistral novela de Vasily Grossman de 1959, Life and Fate. Fue escrito desde las trincheras del frente ruso durante la Segunda Guerra Mundial, uno de los capítulos más bárbaros de la historia humana. Pero, en el libro, la fe de Grossman en la humanidad y la tecnología persiste. Todavía es capaz de soñar con un futuro en el que una "máquina electrónica" pueda "resolver problemas matemáticos más rápidamente que el hombre y su memoria sea impecable". La máquina del futuro imaginada por Grossman 'podrá escuchar música y apreciar el arte; incluso podrá componer melodías, pintar cuadros y escribir poemas'. Superará los logros del hombre, dice.

El contraste con la actualidad es notable. Incluso después de la barbarie de la Segunda Guerra Mundial, Grossman ve lo que hoy llamamos IA como algo que elevaría a la humanidad, no la amenazaría, que sacaría lo mejor del hombre, componiendo, pintando y escribiendo. Su 'máquina electrónica' encarna lo que él llama las 'peculiaridades de la mente y el alma de un ser humano común y corriente'. La máquina de Grossman encarna y hace avanzar a la humanidad. Se recordará, escribe:

'Recuerdos de la infancia... lágrimas de felicidad... la amargura de la separación... el amor a la libertad... sentimientos de lástima por un cachorro enfermo... nerviosismo... la ternura de una madre... pensamientos de muerte... tristeza... amistad... amor por los débiles... esperanza repentina... una conjetura afortunada … melancolía… alegría irrazonable… vergüenza repentina…'

La IA de Grossman no busca destruir o castigar a la humanidad. En cambio, expresa la condición humana. Su IA nace de una visión humanista. Las máquinas, pensó, podrían permitir a la humanidad elevarse e ir más allá de sus límites anteriores.

Compare eso con la visión miserable de los expertos de hoy. Ven a la IA como una fuerza profundamente inhumana que casi inevitablemente se volverá contra nosotros, nos degradará y nos castigará. No encarnará lo mejor de nosotros. Encarnará lo peor de nosotros.

Además, el hecho mismo de que vean las herramientas de inteligencia artificial como ChatGPT como un gran paso hacia la inteligencia consciente muestra lo poco que piensan en la inteligencia sensible. Se necesitaron más de 175 000 millones de parámetros de datos, 285 000 núcleos de procesador y 10 000 tarjetas gráficas para desarrollar ChatGPT-3. Eso es aproximadamente igual al poder de cómputo de las 20 supercomputadoras más poderosas del mundo combinadas. Y el resultado final es una máquina que solo puede regurgitar el lenguaje sin entender una sola palabra. Lo que hace ChatGPT es impresionante en sus propios términos. Pero, tal como está, no es un parche en la inteligencia humana.

La máquina de Grossman requeriría mucha más potencia de procesamiento informático y energía de la que podemos producir actualmente. Y se necesitaría una sociedad mucho más avanzada para darse cuenta, una sociedad en la que la crisis energética sería un recuerdo lejano y la computación cuántica una realidad cotidiana. Es poco probable que una sociedad tan avanzada se preocupe por un bot de chat que conspira contra nosotros.

En sus esfuerzos por restringir y legislar en contra de esta tecnología emergente, los expertos en inteligencia artificial de hoy en día y sus animadores en los medios están haciendo un gran flaco favor a la humanidad. Su visión oscura de la IA refleja su falta de fe en la humanidad, su sensación de que estamos a merced de fuerzas que escapan a nuestro control. Y, como resultado, nos están encadenando a una cultura de bajas expectativas.

Hannah Arendt puede ayudar a arrojar algo de luz sobre nuestro estancamiento actual. En su obra maestra, La condición humana (1958), criticó las teorías modernas del conductismo. Estas teorías conciben el comportamiento humano como un reflejo de ciertos estímulos ambientales o como una consecuencia de la historia de un individuo. Arendt afirmó que el conductismo reduce las experiencias y acciones humanas complejas a relaciones simplistas de causa y efecto. Y, como resultado, borran la capacidad de la humanidad para la espontaneidad, la creatividad y la libertad. El problema con las teorías conductistas, escribe, "no es que estén equivocadas, sino que podrían volverse ciertas, que en realidad son la mejor conceptualización posible de ciertas tendencias obvias en la sociedad moderna". Es decir, en la sociedad burocrática de la vida de Arendt, el comportamiento individual se trataba cada vez más como algo que podía ser manejado y dirigido. Los humanos estaban siendo reducidos a objetos. Ella continúa: "Es bastante concebible que la era moderna, que comenzó con un estallido de actividad humana tan prometedor y sin precedentes, pueda terminar en la pasividad más letal y estéril que la historia haya conocido".

Las palabras de Arendt podrían haber sido escritas con la narrativa del fin del mundo de la IA en mente. En una era en la que los humanos son vistos como objetos de fuerzas inhumanas, desde el cambio climático hasta las pandemias, desencadenadas por nuestras propias acciones, ¿es de extrañar que la IA se presente como una amenaza? La narrativa del fin del mundo de la IA es, como dice Arendt, la "conceptualización de ciertas tendencias obvias en la sociedad moderna".

Y así, algo tan potencialmente útil como la IA se ha convertido en un medio para que políticos y expertos expresen su cosmovisión fatalista. Es una tragedia autocumplida. La IA podría permitir que la sociedad vaya más allá de sus límites percibidos. Sin embargo, nuestros expertos agoreros parecen decididos a mantenernos dentro de esos límites.

La buena noticia es que nada de esto es inevitable. Podemos conservar la creencia en el potencial humano. Podemos resistir la narrativa que nos retrata como objetos, viviendo a merced de las cosas que hemos creado. Y si lo hacemos, es concebible que, algún día, podamos desarrollar máquinas que puedan representar las "peculiaridades de la mente y el alma de un ser humano común y corriente", como dijo Vasily Grossman. Ese sería un futuro por el que valía la pena luchar.

doctor normando lewises director gerente de Futures Diagnosis e investigador invitado de MCC Bruselas.

Lunes 5 de junio – 19h a 20h

Andrew Doyle entrevista a Brendan O'Neill sobre su nuevo libro. Gratis para los seguidores con pinchos.

Fotos por: Getty.

Para solicitar información sobre cómo volver a publicar el contenido de Spiked, el derecho a responder o solicitar una corrección, comuníquese con el editor gerente, Viv Regan.

Dr. Norman Lewis Para obtener información sobre la republicación del contenido de Spiked, el derecho a responder o solicitar una corrección, comuníquese con el editor gerente, Viv Regan.