Deprecated: Optional parameter $html_allowed declared before required parameter $url is implicitly treated as a required parameter in /home/casausla/public_html/wp-content/plugins/ml-slider/admin/lib/Updraft_Notices.php on line 89
La hipótesis del filósofo futurista de Oxford sobre el futuro: vigilancia total o destrucción – Fundación Casa Uslar Pietri

La hipótesis del filósofo futurista de Oxford sobre el futuro: vigilancia total o destrucción

La hipótesis del filósofo futurista de Oxford sobre el futuro: vigilancia total o destrucción

El director del Instituto Futuro de la Humanidad está trabajando en un estudio en el que señala las posiblidades que tenemos: o ceder parte de nuestros derechos o desaparecer.


Héctor C. Barnés.- La mayoría de Estados modernos, y con ellos, las diferentes opciones políticas que concurren a las elecciones democráticas, suelen debatirse entre dos valoresla libertad y la seguridad. La primera suele ser la opción progresista, más optimista respecto al ser humano; la segunda, la conservadora, a la que no le tiembla el pulso al sacrificar ciertos derechos si ello garantiza que sus ciudadanos pueden dormir tranquilos por la noche. Una tendencia agudizada después del 11 de septiembre y el ‘boom’ global del miedo al terrorismo. Pero, según el filósofo y “futurista” sueco Nick Bostrom, pronto tendremos que elegir: o vigilancia extrema, o destrucción total.

Es lo que sugiere el transhumanista en un ‘working in progress’ publicado en su página web y titulado “la hipótesis del Mundo Vulnerable” (‘The Vulnerable World Hypothesis’). Para el sueco de la Universidad de Oxford, donde se encuentra al mando del Instituto Futuro de la Humanidad, es casi un milagro que hasta ahora todas las bolas que hayamos sacado del misterioso saco de la tecnología hayan sido blancas (bueno, y una gris, las bombas nucleares que estallaron en Hiroshima y Nagasaki). Lo más probable es que no tengamos la misma suerte en el futuro, una probabilidad que aumenta cada día.

Lea también: La paradoja de sembrar el #petróleo en el Siglo XXI, por Juan Carlos Araujo S.

La teoría defiende que toda civilización llega a un punto de desarrollo tecnológico en el que “con toda seguridad es destruida salvo que se implementen políticas preventivas o una gobernanza global sin precedentes”. Aún estamos muy lejos de alcanzar esta cohesión global, recuerda Bostrom, que señala que vivimos en una condición de “semianarquía por defecto”. Esta está definida por tres rasgos: nuestra habilidad para implementar políticas preventivas está reducida, la capacidad para llevar a cabo proyectos de gobernanza global también y los diferentes actores que pueden desestabilizar este precario equilibrio tienen diferentes motivaciones. Entonces, ¿qué hacemos?

El panóptico ‘hi tech’

Bostrom no zozobra, y a juzgar por la seguridad de sus palabras, da la impresión de que es poco consciente acerca de lo polémica que puede resultar su propuesta. Para el filósofo, no cabe duda de que la posibilidad de una catástrofe es tan elevada que acabaría con todas “las objeciones razonables” que suelen ponerse a determinadas medidas: “Por ejemplo, incluso aquellos que desconfían de la vigilancia del gobierno probablemente favorecían un gran incremento de ella si fuese necesaria para prevenir la posible destrucción de una región”. Otra posibilidad: “Aquellos que valoran vivir en un estado soberano pueden preferir razonablemente hacerlo bajo un gobierno mundial si la alternativa implicase algo tan terrible como un holocausto nuclear”.

El trabajo deja poco espacio a otra alternativa ante esa devastación, que Bostrom concreta de dos maneras: o la muerte de alrededor del 15% de la población mundial o una contracción de más de un 50% del PIB durante más de una década. La solución que propone, recogiendo el guante de Michel Foucault, es un “panóptico hi tech”, cuya descripción suena a narración de Philip K. Dick. El sueco nos invita a imaginar un mundo en el que todo el mundo porta una “etiqueta de la libertad”, una especie de pulsera que registraría audios y vídeos, los subiría en tiempo real a la nube y serían interpretado por un algoritmo. “Si se detecta actividad sospechosa, la información se derivaría a una de las estaciones de monitorización patriótica”, explica Bostrom. El “agente de la libertad” podría, entonces, revisar lo ocurrido y tomar una decisión.

Por supuesto, habría grandes dificultades para implantar este sistema. El autor de ‘Superinteligencia: caminos, peligros, estrategias‘ comienza por las tecnológicas. Basta con que el coste por individuo llegue a los 140 dólares americanos (unos 122 euros) para que “la población mundial entera pueda ser monitorizada continuamente a un coste de menos de un 1% del PIB global”. Si es así, se podría ahorrar una gran cantidad de dinero en juicios, prisiones y otros sistemas de seguridad actuales. También es posible que surjan resistencias ante ciertas medidas, como la “encarcelación preventiva”, que Bostrom propone en caso de que los indicadores apunten un margen de duda inferior a un 1% de que un individuo se dispone a cometer un crimen.

Lea también: El fin de la era petrolera puede venir en automóvil, por Juan Carlos Araujo S

Para entender el radicalismo de dichas decisiones hace falta comprender un poco mejor a qué clase de amenazas nos enfrentamos. Bostrom las clasifica en cuatro grupos:

Tipo 1 o “destrucción nuclear sencilla”

En este tipo de amenaza, individuos o pequeños grupos tienen una gran facilidad para ocasionar una gran destrucción. Pongamos, sugiere el filósofo, que alguien pudiese construir un arma termonuclear portátil en su cocina o que un pequeño grupo de cinco químicos desarrollasen un arma biológica que tuviese el potencial de eliminar a miles de millones de personas. Aunque por lo general se trata de amenazas con un potencial limitado, no podemos pasar por alto la posibilidad de que miles de individuos causen individualmente una destrucción a pequeña escala pero grande en caso de sincronizar esfuerzos. En este caso en el que el panóptico hi-tech se hace necesario, según Bostrom.

Tipo 2a o “primer ataque asegurado”

La destrucción mutua asegurada es una doctrina militar según la cual, si un país con capacidad nuclear ataca a otro, la posibilidad de respuesta provocará la destrucción de ambas. Durante mucho tiempo, fue el garante de que el bloque soviético y el capitalista no se aniquilasen. Existe el riesgo, recuerda Bostrom, de que ese equilibrio se venga abajo y surja la posibilidad de que el bando más agresivo pueda dar el primer paso a la hora de destruir al otroporque el riesgo sería casi inexistente.

Tipo 2b o “peor calentamiento global”

Pongamos que la destrucción está causada por determinados actores que se sienten incentivados a tomar decisiones negativas para el resto pero beneficiosas para ellos, y que por acumulación ocasionan una destrucción mucho mayor de la que podrían haber llevado a cabo de forma individual. Es lo que ocurre en este caso, que Bostrom ilustra con el cambio climático: “No sería un problema si solo una pequeña parte de los actores que pueden conducir coches o cortar árboles lo hicieran, el problema es que demasiados se decantan por hacerlo”. Sin coordinación global, es imposible hacer frente a este tipo de amenazas.

Tipo 0 o “sorprendente materia extraña”

Toda innovación tecnológica implica consecuencias que apenas se pueden prever, riesgos que nadie podía haber anticipado. Es lo que pudo ocurrir cuando Edward Teller, uno de los científicos del proyecto Manhattan, advirtió que quizá una explosión nuclear podría elevar la temperatura de la tierra a niveles nunca vistos. Finalmente no fue así, pero el húngaro ya sugería la amenaza de los ángulos muertos de la ciencia. Se trata, resume el filósofo, de una cuestión de mala suerte, y no de mala fe ni de errores de coordinación.

Y ahora, ¿qué?

No todo pasa por poner a cada uno de los 7,5 mil millones del planeta una pulsera que registre todos sus datos. Bostrom también sugiere otras estrategias como intentar ralentizar el inexorable avance del desarrollo científico en aquellos campos que implican un mayor riesgo. Aunque tarde o temprano terminen surgiendo “malas tecnologías”, el tiempo que podamos ganar puede ser de oro. Es uno de los factores que obsesionan al sueco, que asegura que si no hacemos algo ya es probable que sea demasiado tarde.

Lea también: 10 desafíos para la #educación, por Leopoldo Martínez

Otra alternativa es la modificación de preferencias o, en román paladino, conseguir que todos los actores que puedan poner en riesgo la estabilidad global tengan incentivos para remar en la misma dirección. Ente el resto de medidas se encuentran la prevención de que la información dañina se propague, restringir el acceso a determinados materiales, instrumentos e infraestructura o un mayor cálculo de riesgos. En definitiva, estrategias de control de la población y los gobiernos que pueden llegar a incluir la censura, que el trabajo califica como de “parche temporal”. Ello también incluye la autocensura por parte de científicos.

Un reto presente y futuro es la dificultad de coordinar esfuerzos en una gobernanza global. La cooperación entre Estados con objetivos similares e incentivos para actuar de manera coordinada es esencial para implementar estos sistemas de seguridad que, a la fuerza, han de ser globales. En especial, y a un nivel macro, a la hora de evitar que uno de los actores estatales sea el primero en pulsar el botón rojo en un entorno de conflictividad global. En resumidas cuentas, “la vigilancia comprehensiva y la gobernanza global por lo tanto ofrecerían protección contra un amplio espectro de potenciales vulnerabilidades para la civilización”. Puede haber efectos negativos, concede el sueco, como el refuerzo de los regímenes autoritarios o el ascenso de una ideología hegemónica, pero según Bostrom, son riesgos que merece la pena correr en comparación con lo que puede pasar si no se adoptan. No resulta particularmente tranquilizador.


Deja una respuesta

Tu dirección de correo electrónico no será publicada.