viernes, 5 de septiembre de 2008

End of Civilization


Graficas futuristas; Arriba; el tiempo estimado en que desaparecería cualquier
rastro de la humanidad. Abajo; grafica del ritmo exponencial de eventos
tecnológicos que aceleran la aparición de la Singularidad tecnológica. (2030)



Cuando pensé en SINGULARIDAD, lo hice tomando prestado el concepto de otras teorías; como de La teoría de los Agujeros negros y del Big Bang. Sin embargo, me encontré que también ha sido tomado por Raymond Kurzweil en su teoría de La SINGULARIDAD TECNOLOGICA. Misma, que dentro de las visiones futuristas, se sale de la norma catastrofista. Si bien, algún optimismo se rescata de las visiones apocalípticas, es el hecho de que el final será mas probable para la civilización, y no tanto para el ser humano per se…[...]



En la Wikipedia tenemos las siguientes versiones más populares:
Resistencia antibiótica: La selección natural crearía las perfectas bacterias que serían resistentes a los antibióticos, devastando a la población del mundo y causando un derrumbamiento global de la civilización.
Demografía; Las tendencias demográficas crean un fenómeno que amenazaría el orden de la civilización como la conocemos.
Destrucción mutua; Una guerra nuclear a gama completa podría matar a mil millones, y la radiación nuclear que queda pulverizaría con eficacia cualquier forma de civilización.
Dysgenics; Una carencia de selección natural y la tendencia del más inteligente a tener pocos niños bajarían la salud y la inteligencia medias bastante para conducir a un derrumbamiento eventual de la civilización, asociado a teorías polémicas del eugenics.
Ecología: Los recursos naturales se utilizan en exceso y el ambiente es así dañado con la contaminación y la destrucción de la civilización.
Entretenimiento; Las formas futuras de entretenimiento podrían ser suficientemente adictivas y nocivas para plantear una amenaza a la civilización.
Finanzas; Los mercados fallan por todo el mundo, dando por resultado el derrumbamiento económico: desempleo, el desenfreno, hambre, y muerte totales.
Infertilidad; La fertilidad humana continúa declinando, eventual terminando sin seres humanos fértiles para continuar la especie.
Superpoblación; La población del mundo puede aumentar a tal grado en el futuro que conduciría a la carencia de espacio para habitar y a la exacerbación de los conflictos.
Pico del Petróleo o, cenit de Hubbert, o crisis energética; El petróleo se acabaría antes de que un reemplazo energético económicamente viable se idee, conduciendo al caos global.
Energía de Quantum; En la búsqueda para las nuevas partículas del quantum, los científicos destruyen accidentalmente el universo. Esto, sin embargo, altamente inverosímil; un desastre del estilo de Chernobyl es mucho más posible.
Telomere; Algunos investigadores teorizan una pérdida minúscula de longitud del telomere en el ADN a partir de una generación al siguiente, reflejando el proceso de envejecer en individuos. Millares de generaciones que el telomere erosiona bajaría hasta su nivel crítico. Una vez en el nivel crítico se esperarían ver brotes de enfermedades relativas a la edad que ocurren anteriormente en la vida y finalmente un desplome de la población.

Ya anteriormente (2006-07-15) registre aquí la versión de La Tribu de Anthropik, donde Jason Godesky nos explica sus Treinta Tesis, en donde se incluye su visión futurista, concluyente de la civilización conocida. Se fundamenta en el agotamiento de nuestra fuente principal de energía, el Petróleo y la inevitabilidad del Colapso ….Todas estas teorías son coherentes con el principio de Entropía, que prestado de la termodinámica, significa a muy grandes rasgos, una tendencia al desorden, u orden caótico (?), o sea, en otras palabras, como una tendencia a transitar naturalmente hacia el ocaso, desgaste o muerte, de cualquier forma de organización o existencia en el universo.


La singularidad tecnológica de la que nos habla Kurzweil es definida, a grandes rasgos como

….es un concepto prestado de la astrofísica de hoyos negros. El concepto ha variado
en significados; según lo utilizado por Vernor Vinge y Raymond Kurzweil, refiere a la idea de la aceleración de tecnología conducirá a la máquina sobrehumana, la inteligencia que pronto excederá a la inteligencia humana, probablemente por el año 2030. Los resultados en el otro lado del “horizonte del acontecimiento,” dicen, son imprevisibles. Intentaremos de todos modos...


¿Tendremos el tiempo suficiente para una versión tan optimista? Se contrapone la versión catastrofista del Apocalipsis energético de Hubbert (cenit o pináculo del petróleo). Lo bueno de Godesky, es que tiene ya un gran proyecto para lo que sigue después… El Quinto Mundo

English
When I thought about SINGULARITY, I did it borrowing the concept from other theories; like of the theory of the black Holes and the Big Bang. Nevertheless, I found that it has been also taken by Raymond Kurzweil in its theory of the TECHNOLOGICAL SINGULARITY. Same that in all the futurist visions leaves the catastrophist norm aside. Although, if some optimism is rescued of the apocalyptic visions, is the fact that the end will be probable for the civilization, and not as much for the human being per se… In the Wikipedia we have the following more popular versions:

Antibiotic resistance
Natural selection would create super bacteria that are resistant to antibiotics, devastating the world population and causing a global collapse of civilization.
Demography
Demographic trends create a "baby bust" that threatens the order of civilization as we know it
Mutual assured destruction
A full scale Nuclear war could kill billions, and the resulting Nuclear fallout effectively crush any form of civilization.
Dysgenics
A lack of natural selection and the tendency of the more intelligent to have fewer children would lower the average health and intelligence enough to lead to an eventual collapse of civilization, associated with controversial eugenics theories.
Ecology
Natural resources are used up, or the environment is so damaged through pollution and destruction that civilization fails.
Entertainment
Future forms of entertainment could be sufficiently addictive to pose a threat to civilization.
Finance
Markets fail worldwide, resulting in economic collapse: mass unemployment, rioting, famine, and death.
Infertility
Human fertility continues to decline, eventually ending with no fertile humans left to continue the species.
Overpopulation
World population may increase to such an extent in the future that it would lead to lack of space for habitation
Peak oil
Oil runs out before an economically viable replacement is devised, leading to global chaos.
Quantum energy
In the search for new quantum particles, scientists accidentally destroy the universe. This, however, is highly unlikely; a Chernobyl style disaster is much more possible
Telomere
Some researchers theorize a tiny loss of telomere length from one generation to the next, mirroring the process of aging in individuals. Over thousands of generations the telomere erodes down to its critical level. Once at the critical level we would expect to see outbreaks of age-related diseases occurring earlier in life and finally a population crash.

Previously (2006-07-15) I already register here the version of the Tribe of Anthropik, where Jason Godesky explains his Thirty Thesis to us, where its futurist vision is included, finishing with the civilization as we know it. It is based on the fatigue of our main source of energy, the Petroleum, and the inevitability of Collapse….All these theories are coherent with the principle of Entropy, that borrowed from thermodynamics, means a tendency to disorder, or chaotic order (¿?) that is in other words, like a tendency to go naturally towards the decline or death of any kind of organization or existence in the universe. The technological singularity of which Kurzweil speaks to us is defined, in broad strokes as:


"The Singularity" is a phrase borrowed from the astrophysics of black holes. The phrase has varied meanings; as used by Vernor Vinge and Raymond Kurzweil, it refers to the idea that accelerating technology will lead to superhuman machine intelligence that will soon exceed human intelligence, probably by the year 2030. The results on the other side of the "event horizon," they say, are unpredictable. We'll try anyway.


Will we have the sufficient time for such a so optimistic version? Because this is oppose to the catastrophist version of Peak oil. The good thing of Godesky, is that he already has a great project for what follows later… The Fifth World


Credits
Raymond Kurzweil
Jason Godesky
Wikipedia life expectancy





[...] más/more

No hay comentarios: