Editoriales | Stephen Hawking

Hawking nos lo anticipó

Antes de partir de este mundo, Stephen Hawking planteó sus preocupaciones respecto a los humanos, el mundo y nuestro futuro. Lo hizo de manera doctrinal, basándose en posibilidades científicas, no tirando cartas de tarot sobre una mesa, o inspirando en visiones de una bola de cristal. Entre sus advertencias, algunas de las cuales resultaron muy controvertidas en el momento en el que las formuló, figura la posibilidad de que sea un virus y no una bomba atómica, el que finamente acabe con nosotros. Por supuesto, luego de la polvareda inicial, sus palabras cayeron en el saco roto del olvido, una pena.

Fue hace casi 2 décadas, en octubre del 2001, cuando el destacado astrofísico, cosmólogo y divulgador científico británico aseguró en una entrevista al diario The Daily Telefraph, que la biología, mucho más que la física, presentaba el mayor desafío para la supervivencia humana. “A largo plazo, estoy más preocupado por la biología. Las armas nucleares necesitan grandes instalaciones, pero la ingeniería genética se puede hacer en un laboratorio pequeño. No se puede regular todos los laboratorios del mundo. El peligro es que, ya sea por accidente o por diseño, creemos un virus que nos destruya”, señaló Hawking.

Cuando lo dijo, muchos lo miraron de reojo, la posibilidad de que la humanidad enfrentara una pandemia no entraba en los planes, por ende no constituía ningún desafío para la supervivencia humana. Cuando lo dijo, contestaba a una pregunta sobre el peligro de las armas nucleares en las manos equivocadas, tema en boga en aquel momento. Hawking fue contundente al enumerar los factores de riesgo que avizoraba y en ese contexto mencionó un virus junto con el cambio climático o el choque con un asteroide.

También se mostró preocupado por otros temas amenazantes, no era muy optimista sobre el futuro de la humanidad. “Estamos cerca del punto en el que el calentamiento global se vuelva irreversible”, advertía, esa es “la amenaza más grande” que enfrenta la humanidad. Y en ese sentido, prevenía al mundo sobre el peligro que significaba Donald Trump, a quien fustigó mediáticamente cuando retiró a Estados Unidos del Acuerdo de París. Hawking sostenía que esa decisión “podría empujar a la Tierra al abismo, para convertirse en algo como Venus, con temperaturas de más de 250 grados y lluvias de ácido sulfúrico".

No se equivocaba en que estábamos haciendo y seguimos haciendo todo mal con nuestro maltratado planeta, tampoco en señalar a Trump como un gran peligro, tal vez él hablaba sólo en el sentido ambiental, aunque, considerando su inteligencia superlativa, indudablemente advirtió en toda su dimensión la amenaza que significa alguien como el presidente saliente de EEUU, con independencia del calentamiento global.

Tampoco era muy entusiasta con el desarrollo de los sistemas de inteligencia artificial, “pueden ser lo mejor o lo peor que le suceda a la raza humana”, explicaba. "Las computadoras pueden, en teoría, emular la inteligencia humana e incluso excederla”, advirtió el cosmólogo, subrayando que nuestra capacidad intelectual es limitada. "La creación exitosa de una IA efectiva podría ser el evento más grande en la historia de nuestra civilización. O el peor. Simplemente no lo sabemos. Por lo tanto, no podemos saber si seremos infinitamente asistidos por la IA o si seremos ignorados y marginados, o posiblemente destruidos por ella”.

Su recelo lógico se basaba en que “los humanos, que están limitados por la evolución biológica, no podrían competir y quedarían suprimidos”. Hawking creía que los robots y la inteligencia artificial podrían llegar a superarnos, lo que significaría el fin de la civilización. No se oponía al futuro, proponía la creación de un instituto académico dedicado a estudiar el impacto del desarrollo de la inteligencia artificial, proponía que nos preparemos, nos invitaba a ser precavidos, anticipar y no perder el control.

Es más, nos invitaba a buscar un nuevo hogar en el espacio y recomendaba el sistema Rikel Centaurus, más conocido como Alfa Centauri, porque entendía que de acá a 1000 años, este, nuestro hogar, sería un lugar inhabitable o inviable.

Hawking no quería ser apocalíptico, no intentaba aterrorizarnos, quería compartir lo que gracias a su inteligencia y su conocimiento podía anticipar en base a posibilidades científicas. No quería ser admonitorio, ponía a disposición de la humanidad su capacidad de anticipación, trataba de protegernos. Está a la vista que hasta hoy,

no le hemos hecho ningún caso.

Dejá tu comentario