La inteligencia artificial que convierte a Minority Report en una realidad muestra el fracaso de las películas de ciencia ficción que sirven de advertencia

A principios de este mes, el Ministerio de Seguridad de Argentina anunció la creación de una “Unidad de Inteligencia Artificial Aplicada a la Seguridad”, un grupo de trabajo especial cuyo cometido será “utilizar algoritmos de aprendizaje automático para analizar datos históricos sobre delitos con el fin de predecir delitos futuros y ayudar a prevenirlos”. Puedes leer el anuncio original aquí.

Ahora bien, sean cuales sean los argumentos a favor y en contra de la creación de este nuevo curso de lucha contra el crimen, todas las personas menos divertidas que leyeron el titular de esta historia se saltaron el artículo por completo para publicar GIF animados de Tom Cruise operando lo que parece ser un Xbox Kinnect. Porque si lees la frase «predecir crímenes futuros», vas a pensar Informe de la minoríala adaptación protagonizada por Cruise y dirigida por Steven Spielberg de la historia de Philip K. Dick, El informe de la minoríaDespués de todo, la inteligencia humana realmente no es tan útil para mucho más que jugar Snap.

Sin embargo, vale la pena señalar que esta no es la primera vez que Informe de la minoría Se ha convertido en una realidad. Por si no lo sabías, hace un par de años la Universidad de Chicago utilizó datos disponibles públicamente para predecir futuros delitos una semana antes de que ocurrieran, con una precisión del 90 por ciento, según afirmaba. Y en 2018, la policía de West Midlands en el Reino Unido estaba investigando una “Soluciones Nacionales de Análisis de Datos (NDAS)” que utilizaría una “combinación de IA y estadísticas” para predecir delitos violentos.

Así como referencias a Informe de la minoríaHistorias como ésta también suelen invitar a volver a compartir una publicación hecha por el escritor Alex Blechman hace tres años:

«Autor de ciencia ficción: En mi libro inventé el Nexo del Tormento como una historia de advertencia.

Compañía tecnológica: Por fin hemos creado el Torment Nexus a partir de la clásica novela de ciencia ficción Don’t Create The Torment Nexus.”

Hay algo de verdad en ello. Por mucho que la ciencia ficción esperanzadora como Viaje a las estrellas Si bien el género distópico ha inspirado la tecnología de la vida real con sus comunicadores, hiposprays y tricorders, ha proporcionado muchas historias de advertencia que han llevado a la gente a pensar: «Eso es genial y voy a pagar dinero para que suceda». ¡Basta con mirar toda la investigación que se ha realizado en los últimos 30 años para determinar si es posible hacer un parque temático de dinosaurios!

Pero gritando Informe de la minoría Cada vez que alguien decide probar suerte con este tipo de tecnología se presenta un problema, hasta el punto de que Informe de la minoría El valor de la obra como comentario social comienza a desmoronarse. Permítanos explicarlo.

El informe de la mayoría

El primer punto de orden es que en Informe de la minoríala policía no ha creado realmente una IA que pueda predecir cuándo van a ocurrir delitos. Informe de la minoríaEl MacGuffin que permite la “policía precriminal” no es una computadora, sino tres mutantes psíquicos atrapados en una bañera. Y estamos más lejos de desarrollar la tecnología de mutantes en la bañera de lo que se podría pensar.

Un análogo más cercano al tipo de tecnología previa al delito que aparece repetidamente en los titulares es el programa de televisión Persona de interésUno de los programas más post 11/9 que puedas imaginar, Persona de interés Nos presenta a un inventor que desarrolla una IA que puede predecir el futuro con un 100 por ciento de precisión. El gobierno quiere usarla para predecir y prevenir ataques terroristas, pero cuando el inventor descubre que el gobierno está descartando predicciones de otros asesinatos y crímenes violentos, se convierte en justiciero.

Con ambos Informe de la minoría y Persona de interéscualquier intento de utilizar estas historias para analizar cómo se podrían aplicar estas tecnologías en el mundo real se desmorona rápidamente debido a una diferencia crucial. En la ficción, estas tecnologías trabajar.

No es sorprendente que después del 11 de septiembre hubiera mucha gente interesada en utilizar computadoras para analizar datos y predecir quién se convertiría en terrorista. Muy pronto, estas soluciones se toparon con un problema (es un debate que se llevará a cabo en otro lugar si esto fue realmente un “problema” en lo que respecta a quienes las implementaron): hay muchas más personas que cumplen los criterios de “posible terrorista” que terroristas. Alguien que está furioso por la política y compra una gran cantidad de fertilizantes puede estar planeando construir una bomba. Pero es mucho más probable que esté a punto de arrestar a un hombre inocente al que le gusta mantenerse informado sobre los acontecimientos actuales y que disfruta de la jardinería. Por supuesto, los criterios para estas predicciones no se limitan a quienes compran fertilizantes, sino que también incluyen características demográficas. La línea entre la «vigilancia predictiva» y la «evaluación racial» es tan borrosa que es prácticamente imposible verla.

Un ejemplo específico de la vida real ocurrió en Chicago en 2013, cuando un hombre negro llamado Robert McDaniel apareció en la «lista de peligro» predictiva del Departamento de Policía de Chicago. Persona de interésEl sistema que utilizó la policía predijo que McDaniel estaría involucrado en un crimen violento, pero no pudo decir si sería el tirador o la víctima. Así que la policía fue a hablar con él.

Como McDaniel era un hombre negro de un barrio pobre que había tenido problemas con la policía anteriormente por delitos relacionados con la marihuana y el juego callejero, pero nada violento, levantó sospechas entre algunos vecinos cuando lo vieron siendo visitado por la policía, pero no arrestado.

McDaniel se encontró bajo vigilancia policial constante mientras sus amigos comenzaban a distanciarse. La gente suponía que estaba informando a la policía, y las afirmaciones de McDaniel sobre una «lista de peligros» predictiva sonaban a ciencia ficción. Finalmente, estas sospechas llevaron a que le dispararan.

Es deprimente y amargamente irónico. Casi como una mala historia de ciencia ficción. El algoritmo diseñado para prevenir el crimen causó el mismo crimen que predijo y un hombre inocente fue asesinado.

Pero no es tan inteligente. A pesar de todo el maquillaje de inteligencia artificial que utilizan estas tecnologías, el hecho es que los criterios de selección inevitablemente incorporan los sesgos de quienes las encargan. Tomemos esta historia sobre un programa informático que examinó a dos personas que habían estado involucradas en un delito idéntico, pero predijo que la persona negra tenía más probabilidades de reincidir.

Por supuesto Informe de la minoría y Persona de interés Ambos son ciencia ficción y, por lo general, la gente prefiere que la tecnología de la ciencia ficción funcione. Nadie quiere leer un libro sobre una máquina del tiempo que puede viajar al futuro a una velocidad de un segundo por segundo.

Pero, al igual que estos supuestos programas de prevención del delito, ambas historias contienen sesgos incorporados.

Pre-crimen, no pre-justicia

La apertura de Informe de la minoría ve a un hombre llegar a casa temprano y encontrar a su esposa durmiendo con otro hombre, toma un par de tijeras de la mesita de noche y los asesina a ambos, o al menos lo habría hecho si Tom Cruise no hubiera intervenido heroicamente para detenerlo.

El aspirante a asesino es arrestado por los crímenes que habría cometido y puesto en una cápsula de animación suspendida para siempre.

Ahora bien, incluso suponiendo un sistema de predicción del delito 100 por ciento funcional y preciso sin ningún molesto informe de minorías (el único informe atípico que es la única concesión de la historia a la idea de que podría no ser completamente preciso), todavía estamos viendo un montón de problemas legales y de derechos humanos antes de que este sea un sistema viable.

Fue un crimen pasional, cometido en el momento, que nunca ocurrió. ¿Por qué se da por sentado que la policía irrumpió, golpeó a este hombre y lo puso en un coma inducido médicamente, en lugar de, por ejemplo, irrumpir, convencerlo y ofrecerle un tratamiento psicológico?

Persona de interéscon sus créditos iniciales y tomas de imágenes de CCTV intercaladas entre escenas, se presenta como un comentario sobre el panóptico de vigilancia omnipresente en el que vivimos, pero el principal problema de los personajes con la forma en que el gobierno utiliza la última tecnología de vigilancia es que no la usan. suficienteProbablemente no sea una coincidencia que Persona de interés Está escrito por Jonathan Nolan, el hermano de Christopher Nolan, quien nos dio El caballero oscuro“La tecnología de vigilancia total es malvada y opresiva, pero está bien que Batman la use solo esta vez como un premio”.

Un debate que debería centrarse en los excesos de la policía y el derecho a la privacidad se convierte rápidamente en un debate burdo. 24-Hipotéticas del estilo “Bueno, pero ¿y si hubiera un bebé atado a una bomba nuclear?”. Ya sea intencionalmente o no, ambas historias previas al crimen terminan actuando casi como propaganda para el tipo de vigilancia integral y exceso severo de la policía que supuestamente existen para criticar.

Pero este es un problema que vemos surgir una y otra vez en todo el género de ciencia ficción.

Construyamos de nuevo el Nexo del Tormento

Vamos a irnos Informe de la minoría Y dejemos de lado por un momento la situación anterior al crimen para analizar en cambio el impulso constante hacia la tecnología de drones controlados por IA. Al igual que en la situación anterior al crimen, cada vez que aparece alguna noticia en esta área, inmediatamente se inundan las redes sociales con un millón de personas haciendo bromas al respecto. El terminadorEl Skynet de ‘s.

La narrativa de ciencia ficción es clara en este caso: le damos armas a la IA, la IA adquiere conciencia de sí misma y mata a sus creadores.

Es una amenaza que se toma en serio en el más alto Niveles, como esta historia del año pasado, cuando el coronel de la Fuerza Aérea Tucker “Cinco” Hamilton dijo durante una cumbre que había una simulación en la que una IA que identificaba amenazas de misiles tierra-aire se dio cuenta de que obtenía más puntos si su operador humano no le decía que no matara la amenaza. Entonces, la IA mató al operador porque le impedía lograr su objetivo.

Es una historia aterradora. Además, es completamente inventada. Mucho después de que Twitter hubiera agotado todos sus gifs de reacciones de Arnold Schwarzenegger, la Fuerza Aérea de Estados Unidos publicó un comunicado en el que decía que la “simulación” de la que habló Hamilton era “hipotética”.

La mayoría de la gente, incluidos muchos escritores de ciencia ficción, consideraría una hipótesis como ésta como una excelente razón para no construir robots asesinos dotados de inteligencia artificial, pero quienes idean estos escenarios suelen estar muy involucrados en el sector.

Y la clave de por qué siguen insistiendo con esta narrativa proviene de la vieja máxima de IBM de que “una computadora nunca puede ser considerada responsable, por lo tanto nunca debe tomar una decisión de gestión”. Hay muchos escenarios militares en los que la idea de que las decisiones las tome alguien a quien no se le puede exigir responsabilidades es en realidad sumamente deseable. En abril, Israel supuestamente utilizó bases de datos “alimentadas por inteligencia artificial” para elaborar listas de objetivos de bombardeo en Gaza.

A la gente como Elon Musk le gusta evocar imágenes de ciencia ficción cuando habla de que la IA es un riesgo para la humanidad y, al mismo tiempo, acumula dinero para crearla. Esto se debe a que ninguna IA que se esté desarrollando actualmente superará la inteligencia humana. poder utilizarse para devaluar el trabajo humano y reducir los salarios.

No es nada nuevo que la ciencia ficción apoye sin darse cuenta las cosas contra las que pretende advertir. Los escritores de ciencia ficción siempre han amado El Nexo del Tormento. Uno de De Star Trek El villano más emblemático, Khan Noonien Singh, era un superhombre creado por eugenesia. Una vez más, su primera aparición en la Condiciones de servicio Episodio “La semilla espacial”, que fue una advertencia sobre los peligros de la eugenesia y cómo criar a la humanidad para que sea más fuerte y con mayores intelectos conduciría a la tiranía y la opresión. Excepto que en el episodio también, ya sabes, funcionó. Todo lo que sabemos hoy sobre la eugenesia nos dice que es ciencia ficticia respaldada por una ideología terrible, pero más de 50 años después, Khan todavía proyecta una sombra superpoderosa sobre el Viaje a las estrellas universo.

O mire casi cualquier distopía de ciencia ficción que se le ocurra: la incontable cantidad de imitadores de Orwell en el género. Vigilancia impecable, eficiencia despiadada, control absoluto, estas son las cosas que caracterizan a los gobiernos tiránicos de la ciencia ficción. Es un retrato que cualquier régimen opresor del mundo real se sentiría halagado, mientras que en realidad es más probable que se parezcan al de Terry Gilliam. Brasil.

La ciencia ficción es un género que, a pesar de toda su exageración y tonterías, ama tomarse en serio. Es el género que plantea las grandes preguntas, que es capaz de mirar a la vuelta de la esquina y contarnos cómo es realmente nuestro mundo en rápida evolución. Y es correcto hacerlo. Nuestro mundo se está volviendo cada vez más ciencia ficción. Lo que significa que los narradores que trabajan en el género deben pensar muy cuidadosamente sobre lo que están diciendo sobre ese mundo. Informe de la minoríaTom Cruise interpreta a una herramienta de un sistema opresivo que utiliza la promesa de seguridad para violar los derechos constitucionales de los ciudadanos, pero el mensaje de esa historia puede perderse cuando ese sistema opresivo parece realmente genial.