25th June 2018

Filosofía del transhumanismo

El transhumanismo es un movimiento cultural que considera que la especie humana, en su estado actual, no supone el final de nuestro desarrollo sino más bien una fase temprana, y que el cuerpo y la mente pueden (y deben) ser mejorados y superados mediante la ciencia y la tecnología.

En general, los transhumanistas consideran que debemos aprovechar las tecnología disponibles (presentes y futuras) para mejorar las capacidades humanas. De entrada, los beneficios que plantean son los siguientes:

- Aumentar la salud y la esperanza de vida

- Ampliar nuestras capacidades físicas e intelectuales

- Disminuir el dolor y erradicar los padecimientos

- Mayor control sobre nuestros estados mentales

Al tratarse de una corriente heterogénea, los transhumanistas oscilan desde posiciones utópicas como lograr "la muerte de la muerte", la felicidad plena o una conversión moral de humanidad, hasta otras más realistas y concretas que consideran que los problemas sociales y existenciales no van a desaparecer, aunque la tecnología y la ciencia nos ayudarán bastante.

En lo que sí están de acuerdo los transhumanistas es que el periodo histórico en que vivimos experimenta un desarrollo tecnológico sin precedentes, así como que “el potencial de la humanidad aún no se ha realizado en su mayor parte” (Declaración Transhumanista).

Sus ideas básicas fueron planteadas ya en 1923 por el genetista John Haldane, quien planteaba la aplicación de esa nueva disciplina para mejorar aspectos como la salud y la inteligencia. 

El biólogo Julian Huxley (hermano de Aldous Huxley, autor de Un mundo feliz) es generalmente considerado ‘fundador’ del transhumanismo a finales de los años 50. Ya en la década de 1980 los transhumanistas se reunieron en torno a la Universidad California, donde filósofos como Natasha Vita-More y FM-2030 difundieron sus ideas.

Aunque el movimiento transhumanista se considera como deudor del humanismo ilustrado al confiar en el poder de la razón y el progreso material, existe una diferencia importante, pues no le interesa el progreso tecnológico para realizar mejoras desde un punto de vista social, político, económico, cultural o medioambiental, vías por las que también se podría acceder a mejores condiciones de vida, menor sufrimiento y mayor bienestar. Por el contrario, se centra en un plano de mejora individual (en el sentido de biohacking), y a partir de ahí se extrapola al plano colectivo de la humanidad.

El transhumanismo tampoco se muestra interesando, desde el plano de la mejora personal, en aspectos como el mindfulness u otras técnicas psicológicas que sin recurrir a la tecnología, inciden en la mejora personal y el autoconocimiento de manera no intrusiva y sin dispositivos externos.

Esta concepción no es casual. El transhumanismo como corriente de pensamiento surge en  los Estados Unidos, muy especialmente en el polo de innovación tecnológica de Silicon Valley, y por tanto muy influenciada por una visión que refleja los ideales de iniciativa individual, libre mercado y una ética utilitarista. Sea como fuere, no aspira a ser el recipiente de una concepción globalmente compartida sobre el ser humano y sus futuros pasos en nuestro planeta (si hubiera tal consenso), sino que asume los presupuestos culturales, sociales y económicos de una élite dominante en el mundo anglosajón.

En cualquier caso y según Nick Bostrom (uno de los fundadores de la Asociación Transhumanista Mundial, hoy Humanity Plus), impulsos como la búsqueda de la inmortalidad y la trascendencia existen desde tiempos inmemoriales. Prueba de ello es el Poema de Gilgamesh, primera epopeya literaria conocida, de casi 5.000 años de antiguedad, cuyo tema principal se repite hasta nuestros días.

La declaración transhumanista

Elaborada en 1998 por un grupo internacional de autores, la Declaración Transhumanista ha sido modificada a través de los años por varios autores y organizaciones. Sus autores originales (varios de los cuales siguen hoy muy activos, como Natasha Vita-More y Nick Bostrom) fueron: Doug Baily, Anders Sandberg, Gustavo Alves, Max More, Holger Wagner,, Eugene Leitl, Bernie Staring, David Pearce, Bill Fantegrossi, den Nutria, Ralf Fletcher, Kathryn Aegis, Tom Morrow, Alexander Chislenko, Lee Daniel Crocker, Darren Reynolds, Keith Elis, Thom Quinn, Mikhail Sverdlov, Arjen Kamphuis, Shane Spaulding y Nick Bostrom.

  1. La humanidad será profundamente afectada por la ciencia y la tecnología en el futuro. Nuestra visión incluye la posibilidad de ampliar el potencial humano sobrepasando edad, adquisición lenta de conocimiento, sufrimiento involuntario, así como nuestra permanencia en el planeta Tierra.
  2. Creemos que el potencial de la humanidad mayoritariamente se encuentra no realizado. Existen posibles escenarios que conducen a condiciones humanas maravillosas y mucho mejores.
  3. Reconocemos que los seres humanos enfrentan riesgos serios, especialmente ocasionados por el mal uso de las nuevas tecnologías. Existen escenarios reales que podrían llevarnos a la pérdida de casi todo o todo de lo que consideramos valioso. Algunos escenarios son drásticos, otros son sutiles. Aunque todo progreso es cambio, no todo cambio representa progreso.
  4. Se requieren esfuerzos de investigación  para la comprensión de estos prospectos. Es necesario deliberar cuidadosamente sobre la mejor manera de reducir los riesgos y generar aplicaciones benéficas. También se requieren foros donde podamos discutir constructivamente lo que debe hacerse y el sistema social donde se tomen responsablemente decisiones.
  5. Reducción de riesgos para nuestra existencia como humanos y el desarrollo de medios de preservación de la salud y la vida, el alivio del sufrimiento grave y el incremento de la sabiduría y visión humanas debe estar dentro de las prioridades urgentes.
  6. La creación de políticas debe estar guiada por una visión amplia y responsable, tomando en consideración de manera seria tanto los riesgos como las oportunidades, respetando la autonomía y los derechos individuales y mostrando solidaridad y preocupación por los intereses y dignidad de todos los pueblos del planeta. Debemos considerar nuestra responsabilidad moral hacia las generaciones venideras.
  7. Nuestra recomendación es el bienestar de toda criatura, lo que incluye animales humanos y no humanos, así como cualquier futuro intelecto artificial, formas de vida modificadas y otros tipos de inteligencias que surjan a partir de los avances científicos y tecnológicos.
  8. Favorecemos la visión que los individuos deben ser los que decidan  y elijan sobre su vida. Esto incluye el uso de técnicas que pueden incrementar la memoria, la concentración y la energía mental; terapias para extender la vida; elección de tecnologías reproductivas; procedimientos criónicos; y cualquier posible modificación humana  con tecnologías de mejoramiento.

Transhumanismo y posthumanismo

La mayoría de transhumanistas también se posicionan a favor del posthumanismo, un estadio del ser más avanzado mediante la cual alcanzar la inmortalidad y la conquista de otros planetas mediante nuestro paso a un estado posthumano. La manera, se afirma desde el transhumanismo, mediante el descarga mental una supuesta tecnología futura en la cual nuestra mente se transfiere a un servidor y vivimos en él sin cuerpo biológico.

Los transhumanistas sostienen que la humanidad no es el final de la evolución, y esperan hacer uso de la tecnología y otros medios para llegar a hacer posibles el posthumanos. Para los transhumanistas, la naturaleza humana es como un campo de trabajo que está cambiando constantemente, y en el que se puede aprender a transformar las formas que uno desee.

Una posibilidad dentro del posthumanismo es la que explora Arthur C. Clark en su novela 2001: una odisea en el espacio, donde un artefacto alienígena otorga saltos evolutivos sin precendentes en la Tierra.

La Singularidad

Algunos teóricos como Raymond Kurzweil consideran que habrá un punto en el futuro cuando la tasa de desarrollo tecnológico llegue a ser tan rápida que la curva de progreso se vuelva casi vertical. En su caso particular lo establece en el año 2045.

Llegados a ese punto, en un tiempo muy breve (meses, días o incluso horas), el mundo que conocemos podría transformarse hasta el punto de no volverse reconocible. Este punto hipotético se conoce como la singularidad. La causa más probable de una singularidad sería la creación de alguna forma de inteligencia mayor que la humana, como por ejemplo la inteligencia artificial fuerte.

El concepto de la singularidad a menudo se asocia con Vernor Vinge, quien lo considera como uno de los escenarios más probables para el futuro.

La hipótesis de la singularidad a veces se combina con la afirmación de que es imposible para nosotros predecir lo que viene después de la singularidad. Una sociedad posterior a la singularidad podría ser tan extraña que no podamos saber nada al respecto. Una excepción podrían ser las leyes básicas de la física, pero incluso a veces se sugiere que puede haber leyes no descubiertas (por ejemplo, todavía no tenemos una teoría aceptada de la gravedad cuántica) o consecuencias poco entendidas de leyes conocidas que podrían ser explotados para permitir cosas que normalmente seríamos físicamente imposibles, como crear agujeros de gusano transitables, engendrar nuevos universos "en el sótano" o viajar hacia atrás en el tiempo. Sin embargo, la imprevisibilidad es lógicamente distinta de la brusquedad del desarrollo y debería argumentarse por separado.

Los transhumanistas difieren ampliamente en la probabilidad que asignan al escenario de Vinge. Casi todos los que piensan que habrá una singularidad creen que sucederá en este siglo, y muchos piensan que es probable que suceda dentro de varias décadas.

Comparte esta noticia en tus redes: