Check the new version here

Popular channels

Las 5 Mayores Amenazas de la Humanidad

El futuro de la humanidad está seriamente amenazado. En los últimos meses se han sucedido numerosos informes oficiales que reflejan la preocupación de agencias de seguridad y organismos internacionales sobre esta posibilidad. Desde la NASA a la ONU, pasando por el Pentágono, han analizado en documentos internos los riesgos de un posible colapso de la civilización. Un escenario cada vez más cercano sobre el que el departamento de defensa norteamericano cuenta con un plan de contingencia bajo el que un Comando Estratégico del ejército de EEUU se instruye en las labores propias de una gran catástrofe planetaria

Los riesgos que señalan estos organismos son numerosos y diversos, aunque todos tienen como telón de fondo los problemas de escasez: crisis alimentarias, energéticas, económicas (incremento de la desigualdad social), climáticas y del agua. La convergencia de estas generaría una ‘tormenta perfecta’ tras la cual se incrementaría la violencia y los enfrentamientos entre países por el acceso los recursos, la generalización de la pobreza, el deterioro democrático o las migraciones masivas.



Las instituciones universitarias y los científicos más reputados del mundo no han estado ajenos a la lectura del ‘colapso de la civilización’, sin dejar de aportar soluciones a cada uno de los retos a los que nos enfrentamos. El archiconocido Stephen Hawking, el cosmólogo y astrofísico de Cambridge Martin Rees, el ingeniero informático y cofundador de Skype Jaan Tallinn o el exasesor científico del gobierno británico y de la Royal Society Robert May, entre otros, son algunos de los cerebros científicos que ya están trabajando codo con codo para preparar diferentes respuestas a los “desastres potencialmente devastadores para la civilización”.


El denominado Center for the Study of Existential Risk (CSER) se centrará en identificar los eventos catastróficos que podrían devastar el mundo e, incluso, “provocar la extinción de la especie humana”. Su primer informe sobre los “riesgos civilizatorios” se facilitará a los gobiernos de todo el mundo, así como a las sociedades científicas, para animarlos a ser copartícipes de las posibles soluciones. Un trabajo similar al del Future of Humanity Institute (FHI) de la Universidad de Oxford




Uno de los investigadores del FHI, el científico Anders Sandberg, ha publicado un medio especializado los cinco “riesgos existenciales” que podrían poner fin a la historia de la humanidad “si no desarrollamos las tecnologías necesarias para evitarlos o, al menos, mitigarlos”.


Resistencia a los antibióticos y expansión de nuevos virus
Hace unos días, la Organización Mundial de la Salud (OMS) advertía sobre la expansión de cuatro nuevos virus muy peligrosos. Su directora general, Margaret Chan, explicó que se trata del Síndrome Respiratorio de Oriente Medio por Coronavirus (MERS-CoV), con la mayoría de casos en Arabia Saudí y los Emiratos Árabes Unidos, de los virus H5N1 y H7N9 de la gripe aviar, y del ébola, del que se ha registrado recientemente un grave brote en Guinea Conakry.
Los peligros en este caso se focalizan en la rapidez con la que se pueden expandir estos virus por todo el mundo y en el fácil acceso a las armas biológicas, impulsando así el denominado bioterrorismo. Por otra parte, la cada vez más extendida resistencia genética a los medicamentos antibióticos puede provocar la expansión de infecciones mortales y convertir en intratables cientos de viejas enfermedades.







El control y manipulación de la materia a nanoescala y con precisión atómica no es mala en sí misma. Como ocurre con la inteligencia artificial tiene grandes posibilidades, pero el abuso y la mala praxis son difíciles de evitar. Como remarca el científico de Oxford, podemos caer en una espiral autodestructiva. Un ejemplo de ello es el desarrollo de armas autónomas. Los comúnmente denominados robots asesinos son ya una realidad, y no nos referimos solamente a los drones militares, sino a otras armas que ya están usando diversos ejércitos. Tanto es así, que las armas letales autónomas se han convertido en una seria preocupación internacional hasta el punto de que la ONU discutió hace escasos días en Ginebra su posible prohibición o, al menos, limitación



El control y manipulación de la materia a nanoescala y con precisión atómica no es mala en sí misma. Como ocurre con la inteligencia artificial tiene grandes posibilidades, pero el abuso y la mala praxis son difíciles de evitar. Como remarca el científico de Oxford, podemos caer en una espiral autodestructiva. Un ejemplo de ello es el desarrollo de armas autónomas. Los comúnmente denominados robots asesinos son ya una realidad, y no nos referimos solamente a los drones militares, sino a otras armas que ya están usando diversos ejércitos. Tanto es así, que las armas letales autónomas se han convertido en una seria preocupación internacional hasta el punto de que la ONU discutió hace escasos días en Ginebra su posible prohibición o, al menos, limitación

nteligencia artificial

“El problema de este tipo de desarrollo es que se enmarque al margen de las leyes morales y éticas. Si definitivamente se produce este salto en al vacío de la inteligencia artificial, sin antes fijar unas normas y restricciones concretas, podría suponer un gran desastre”, advierte el científico del FHI. Aunque Sandberg reconoce que es complicado adelantarse a las consecuencias de los avances tecnológicos, “tienen un claro potencial para propiciar desastres de gran magnitud porque estos avances se imponen a gran velocidad, dejando a la sociedad sin tiempo para reaccionar”. La seguridad, añade, es prácticamente inexistente en este terreno, pues seguimos aplazando los problemas innatos a la inteligencia artificial.



Otras amenazas todavía desconocidas
El futuro es impredecible, y como tal existe una serie de peligros para el futuro de la humanidad que todavía no han podido ser identificados. Por otra parte, hay que tener en cuenta factores impredecibles como puede ser el impacto de un meteorito. “La tasa de extinción de las especies naturales se sitúa en el millón de años”. Unos datos a tener en cuenta a pesar de que son mucho menores que los de una guerra nuclear o bacteriológica.
0No comments yet
      GIF
      New