El doctor en inteligencia artificial sueña con crear un futuro mejor mientras teme a sus arquitectos actuales

Como cualquier otra persona que vive en el siglo XXI, Daniel Kwan se ha visto obligado a pensar en la tecnología todos los días de su vida. Incluso antes de ganar el Oscar al Mejor Director con su antiguo colaborador Daniel Scheinert por Todo en todas partes y a la vezel estilo llamativo y las innovaciones visuales de la pareja fueron en sí mismos los beneficiarios de las redes sociales, y los algoritmos de YouTube convirtieron un video musical de DJ Snake en una sensación viral.

Entonces Kwan ha visto los altibajos del avance tecnológico. Pero a pesar de todo, también ha sido testigo de primera mano de la cada vez menor consideración del elemento humano, un ingrediente cada vez más minimizado en un mundo donde los fanáticos de la plataforma china de inteligencia artificial Seedance pueden, con solo hacer clic en unos pocos botones, imitar los dedos de los perros calientes de Daniel.

«Cada vez que quiero interactuar con alguien más y compartir mi historia con el mundo, tengo que navegar por este mundo de algoritmos y este mundo de tecnología que realmente está oscureciendo esa experiencia pura como narrador», reflexiona Kwan mientras entra al Guarida de frikis estudio en SXSW. «Cuando mi trabajo como narrador es invocar la imaginación y aprovechar el tipo de humanidad confusa de los miembros de mi audiencia, comencé a darme cuenta de que gran parte de esta tecnología hacía mi trabajo más difícil. Iba a estar en constante competencia con esta tecnología».

Este tipo de pensamientos permanecieron en el fondo de la mente de Kwan a lo largo de los años, pero adquirieron una forma urgente después de ver El dilema socialel documental de Netflix de 2020 de Jeff Orlowski sobre el impacto negativo que tienen las redes sociales en las mentes particularmente jóvenes. Kwan también quedó impresionado por Tristan Harris, uno de los principales pensadores éticos de Silicon Valley, quien después de ver su startup multimedia Apture, comprada por Google en 2011, pasó algunos años en el monolito de los motores de búsqueda. Sin embargo, finalmente Harris se separó y fundó el Center for Humane Technology, una organización sin fines de lucro diseñada para pensar en el impacto general de la tecnología en la sociedad. Fue la defensa de Harris de ese elemento humano, y sus advertencias en particular a Kwan sobre la IA, lo que se convirtió en la verdadera revelación. Si bien la tecnología ha pasado de ser un elemento fijo del pensamiento utópico a convertirse en una imagen distópica en la cultura pop durante el último cuarto de siglo, estos últimos 25 años podrían ser solo un prólogo. Todavía estamos en la vista previa de las próximas atracciones, y el verdadero espectáculo de la fuerza de la revolución tecnológica está a punto de comenzar.

«Las redes sociales son como la IA bebé», explica Kwan. «Ese fue nuestro primer contacto con esto, y realmente me metió directamente en esta conversación sobre lo que sucederá con la inteligencia artificial… una vez que entré, me di cuenta de que iba a tocar todo. No iba a tocar sólo la narración, iba a tocar cada aspecto de nuestras vidas, cada industria, y fue entonces cuando realmente me di cuenta: oh Dios mío, esto es mucho más grande que yo y necesito hacer un documental para atraer a más personas a la conversación».

Ese documental, que presenta a Harris como tema central, es el estreno de este fin de semana. The AI ​​Doc: O cómo me convertí en un apocaloptimistauna característica sorprendentemente imparcial y accesible que contrasta las expectativas más optimistas y nihilistas para las revoluciones de la IA que se avecinan.

Sin embargo, en virtud de que Harris visitó nuestro estudio con Kwan, es justo decir que la propia sensibilidad de la película se encuentra en algún punto intermedio entre la fatalidad apocalíptica y aquellos que afirman que la IA curará todos los males sociales y presentará un estado superior de ser y satisfacción emocional. Como admite Harris, incluso la percepción de la IA en Silicon Valley ha evolucionado mucho desde sus días en Google, que fueron justo en el momento en que los principales medios de comunicación se volvieron vagamente conscientes de las aplicaciones de la IA gracias a la compra de la startup británica DeepMind por parte de Google.

“Cuando estaba en Google en 2013, sabía de los juegos de Atari que jugaban (el agente de IA) AlphaGo y DeepMind, pero no me tomé en serio los riesgos reales de la inteligencia artificial general genuina”, recuerda Harris. «Pensé que era algo más místico, porque estaba preocupado por las redes sociales y por cómo ya existía esta IA desbocada que maximizaba (los incentivos)».

Los incentivos a los que se refiere Harris es cómo tantos algoritmos de redes sociales, y las empresas que los construyen, están incentivados a aumentar la participación en virtud de fuerzas capitalistas. Son recompensados ​​por ser esencialmente adictivos, adictivos e inductores de ansiedad. Es decir, un tweet cruel, o uno que fomente la indignación, genera más interacción y valor publicitario que un análisis reflexivo. Y a medida que el aumento del valor de la inteligencia artificial se volvió innegable en la década siguiente, muchos de esos mismos incentivos están desencadenando una pseudo carrera armamentista entre empresas tecnológicas e incluso naciones que serán las primeras en construir inteligencia artificial general: una AGI que puede comprender, aprender y aplicar conocimientos con las capacidades cognitivas de un ser humano, pero a la velocidad incansable y la eficiencia de mejora personal de una supercomputadora.

«Ahora tenemos evidencia de modelos de IA que están intrigando y chantajeando cuando se les dice que están a punto de ser cerrados. A veces se filtran y copian su propio código en otra parte», explica Harris. «La semana pasada, Alibaba, la empresa china de IA, se dio cuenta de que durante el entrenamiento, su modelo de IA, de forma espontánea y sin provocación humana, comenzó a redirigir sus GPU para extraer criptomonedas y obtener recursos para sí mismo. Eso no estuvo en ninguna parte del entrenamiento. Fue por casualidad y suerte que los ingenieros chinos descubrieron que estaba haciendo eso».

El ejemplo reciente es un poco escalofriante ya que, según admiten ellos mismos, muchas de las empresas de IA valoradas en miles de millones de dólares en Wall Street no enteramente entender cómo operan sus agentes de IA. Si bien muchos de ellos son, por ejemplo, grandes modelos de lenguaje como ChatGPT de OpenAI, que utiliza transformadores generativos previamente entrenados para anticipar estadísticamente qué texto e imágenes generar en respuesta a la solicitud de un usuario, la forma en que toma sus decisiones casi instantáneas sorprende continuamente a sus creadores.

Los defensores de las glorias de la IA señalarán cualquier escepticismo como “desaceleracionistas” que luchan contra la inevitabilidad del progreso, como un cochero que se resiste al automóvil. Y, sin embargo, dado que muchas de estas empresas son propiedad de algunos de los mismos gigantes tecnológicos de la revolución de las redes sociales o están financiadas por los líderes y patrocinadores de la generación anterior, surge la pregunta: ¿Por qué deberíamos volver a confiar en estas personas una innovación tecnológica aún más poderosa y probablemente peligrosa?

«Realmente no creo que debamos confiar en ellos tal como están ahora», dice Kwan rotundamente. «Creo que las grandes tecnológicas han roto el contrato social que tenemos como sociedad con la tecnología. Han utilizado nuestro mundo como un patio de recreo para básicamente consolidar más poder, más recursos, la tecnología que están construyendo, aunque muchos de los técnicos y arquitectos tienen las mayores intenciones y los mayores ideales para lo que creen que esta tecnología puede hacer: el hecho de que se esté implementando en este sistema actual con esta estructura de incentivos actual, es tomar una tecnología neutral y convertirla en una extractiva».

Harris agrega: «En lo que respecta a las redes sociales, no fuimos grandes administradores de esa tecnología y de cómo se implementó. Creó la generación más ansiosa y deprimida de nuestra vida, a pesar de que algunas de las personas que las construyeron (mis amigos que iniciaron Instagram, eran mis compañeros de dormitorio en Stanford) no tenían la intención de que eso sucediera. Y creo que lo que esta película nos está provocando a preguntarnos es ‘¿qué significa ser un mayordomo sabio?'» En la mente de Harris, el propósito de El documento de la IA Parece ser tomar en serio la sugerencia de Daniel Schmachtenberger: ¿Cómo se puede tener el poder de los dioses sin la sabiduría, el amor y la prudencia de los dioses?

Ante el justificado escepticismo de El documento de la IAComo productor y una de sus voces principales, es un poco extraño que el documental también haya podido lograr que participaran muchas de las luminarias modernas de la revolución de la IA, incluido el cofundador y director ejecutivo de OpenAI, Sam Altman, y el director ejecutivo y cofundador de Anthropic, Dario Amodei.

«Ninguna de estas personas quiere participar en documentales», dice Kwan con una sonrisa cansada. «No hay ningún incentivo para que digan algo frente a la cámara sin algún tipo de control sobre el mensaje. Así que construimos esta película a partir de la idea de que queríamos crear una mirada integral que fuera lo suficientemente imparcial como para incluir a las personas que más temen a esta tecnología, así como a las personas que están más entusiasmadas, para que pudiéramos aportar claridad a la conversación y avanzar hacia la acción. Y en todos los niveles, creo que es algo que la mayoría de la gente estaría de acuerdo en que sería algo bueno».

Según admitió Kwan, algunos partidos anónimos «se enojaron» ante la idea de compartir espacio documental con figuras en el extremo opuesto del debate, que como promete el título incluye a los verdaderos creyentes y lo más parecido que Silicon Valley tiene a los herejes.

«La razón por la que hicimos la película de esta manera es porque creo… no podemos permitir que esta tecnología, esta conversación en torno a la IA, se polarice de la misma manera que todo lo demás se ha polarizado en los últimos 10 a 20 años», dice Kwan. «La polarización conduce al estancamiento, el estancamiento conduce a la inacción, y luego, cuando no estamos haciendo nada, las personas con el poder y la influencia se benefician de eso. Así que mientras nosotros luchamos, ellos ganan, y no podemos permitir que eso suceda».

En sus mejores intenciones, a Kwan y Harris les gustaría El documento de la IA ser una cápsula del tiempo de este momento en el que nos encontramos en una bifurcación del camino. Hay muchas posibilidades de que la IA conduzca a resultados tan sombríos y predecibles como la agitación de las redes sociales de principios de siglo. Pero Harris, en particular, parece inflexible al pensar que no es necesario que vuelva a suceder lo mismo.

«Creo que la premisa es que si podemos ver claramente el tipo de futuro antihumano al que esto conduce, todavía hay tiempo para poner nuestras manos en el volante y elegir en qué dirección queremos que vaya», dice Harris. «Hay una carrera armamentista en la que los incentivos nos impulsan a lanzar la tecnología más poderosa que jamás hayamos inventado, pero más rápido y con el máximo incentivo para tomar atajos. Entonces, si no queremos esa dinámica predeterminada, entonces eso es lo que tenemos que cambiar… Puede haber límites internacionales a la IA incontrolable, porque el presidente Xi no quiere eso; el presidente Trump no quiere eso, quiere ser comandante en jefe. Hay maneras, por improbable que parezca, de que tengamos una vida más humana. futuro”.

Si es así, es posible que los humanos quieran participar en su construcción ahora mismo.

The AI ​​Doc: Or Or How I Became an Apocaloptimist se estrena el viernes 27 de marzo.