Especial H2blOg: La Singularidad Tecnológica

Singularidad. Un término que está apareciendo en todas partes: documentales de televisión, historias de ciencia ficción, conferencias científicas. Esta semana fue el tema al que se dedicó la publicación IEEE Spectrum y uno de los más debatidos en el World Science Festival. La Singularidad Tecnológica (para diferenciarla del concepto de Singularidad en la física) contempla un momento en la historia donde el progreso tecnológico genera un cambio “comparable al nacimiento de vida humana en la Tierra. La causa precisa de este cambio es la creación inminente de entidades con inteligencia mayor a la humana por medio de la tecnología”, escribió Vernor Vinge, autor de ciencia ficción que propuso el término de Singularidad Tecnológica en un ensayo publicado en 1993. Allí Vinge especula que este cambio podría darse por medio de la inteligencia artificial, las interfaces humano/computador, o por la modificación biológica del genoma humano. Luego de este punto, terminaría la historia humana.

El mismo Vinge fue entrevistado recientemente para el especial de IEEE Spectrum, escribió un nuevo ensayo respondiendo a argumentos sobre el tema planteados en otros artículos del mismo especial y dice que continúa firme con la predicción planteada en 1993:

Creo que es probable que con la tecnología podamos, en un futuro muy cercano, crear o convertirnos en seres más inteligentes que los humanos. Tal singularidad tecnológica revolucionaría nuestro mundo, llevándolo a una era post-humana. Si fuera a pasar dentro de un millón de años, no valdría la pena preocuparse. ¿Así que a que me refiero cuando digo “un futuro muy cercano”? En mi ensayo de 1993, “El Advenimiento de la Singularidad Tecnológica”, dije que estaría sorprendido si la singularidad no sucediera para el 2030. Mantengo mi posición con respecto a esa afirmación asumiendo que evitamos las descomunales catástrofes –cosas como las guerras nucleares, las superplagas, las emergencias climáticas– a las que le dedicamos apropiadamente nuestra ansiedad.

En ese punto Vinge espera que la singularidad se manifieste como una combinación de elementos:

El Escenario IA: creamos inteligencia artificial (IA) superhumana en computadores.
El Escenario AI: mejoramos la inteligencia humana por medio de las interfaces humano/computador, logrando amplificación de la inteligencia (AI).
El Escenario Biomédico: incrementamos directamente nuestra inteligencia mejorando la operación neurológica de nuestros cerebros.
El Escenario Internet: la humanidad, sus redes, computadores, y bases de datos se vuelven lo suficientemente efectivas como para ser consideradas un ser superhumano.
El Escenario Gaia Digital: la red de microprocesadores embebidos se vuelve lo suficientemente efectiva como para ser considerada un ser superhumano.

Cada autor que participó en el especial de Spectrum tiene sus propias visiones sobre la singularidad. El filósofo Alfred Nordman critica las extrapolaciones usadas para los argumentos sobre el tema, y usa tendencias para hacer sus pronósticos (una técnica bastante criticada en los comentarios). Vernor Vinge le responde usando su misma técnica: tendencias que apoyan la posibilidad de la singularidad tecnológica. Una es la tendencia a largo plazo de la vida hacia una mayor complejidad, lo que algunos ven como un progreso imparable hacia el mejoramiento que solo podría ser detenido por una catástrofe. Como humanidad hemos pasado de la capacidad de adaptarnos para la supervivencia por medio de la selección natural de rasgos hereditarios a nuevos medios de adaptación y resolución rápida de problemas:

Desde hace algunos miles de años los seres humanos han empezado el próximo paso, creando herramientas para soportar las funciones cognitivas. Por ejemplo, escribir es una función de descarga de la memoria. Estamos construyendo herramientas –computadores, redes, sistemas de base de datos— que pueden acelerar los procesos de adaptación y resolución de problemas. No es sorprendente que entusiastas de la tecnología hayan empezado a hablar de las posibles consecuencias.

Vinge dice que dependiendo de nuestro ingenio (y el de nuestros artefactos) existe la posibilidad de una transformación comparable al surgimiento de la inteligencia humana en el mundo biológico.

La otra tendencia es el aumento exponencial de hardware en los computadores descrito en la Ley de Moore, formulada por el co-creador de Intel Gordon E. Moore en 1965, y que actualmente sigue cumpliéndose — aproximadamente cada dos años se duplica el número de transistores en un circuito integrado. Esto indica que la complejidad de los chips aumenta, y debido a la producción exponencial, disminuyen los costos. Moore dijo en una conferencia el año pasado (2007): “mi ley dejará de cumplirse dentro de 10 o 15 años”, pero también afirmó que nuevas tecnologías vendrán a suplir la actual.

Bueno, volvamos al ensayo de Vinge. Él menciona que las nuevas tecnologías para los componentes posiblemente sean nanotubos de carbono, y un nuevo método para el emplazamiento a alta velocidad que posiblemente sea autoensamblaje. Y sobre la demanda, dice que lo más notable de la Ley de Moore es que permite mejoras en comunicaciones, almacenamiento de información, lógica embebida, planeación y diseño en áreas directa o indirectamente importantes para todas las empresas. “Desde que se desarrolle software que haga uso de la Ley de Moore, continuará la demanda para el progreso”.

***

En el siguiente documental sobre la singularidad tecnológica producido por la BBC participan Miguel Nicolelis de Johns Hopkins, Seth Lloyd del MIT y el pionero de la Inteligencia Artificial, Ray Kurzweil. Se habla sobre el nuevo ser humano: algunos creen que sus hijos podrán vivir en un futuro cercano donde los computadores cuánticos son una realidad; donde se podrán descargar pensamientos, almacenarlos en memorias, e interactuar con máquinas; e incluso, donde una guerra tecnológica podría destruirlos.

***

A continuación, una entrevista de Cory Doctorow a Ray Kurzweil, escritor del bestseller The Singularity is Near

Cuando La Singularidad Es Más Que Un Recurso Literario:
Una Entrevista Con El Inventor-Futurista Ray Kurzweil

Por: Cory Doctorow

Título original: When the Singularity is More Than a Literary Device:
An Interview with Futurist-Inventor Ray Kurzweil

Traducción de Domingo Santos

Copyright 2005 Cory Doctorow
Some Rights Reserved, Creative Commons by-nc-sa
http://creativecommons.org/licenses/by-nc-sa/2.5/


#

No tengo claro si la Singularidad es un sistema de creencias técnico o espiritual.

La Singularidad ─una noción que se ha infiltrado en multitud de ambientes, y cuyo portavoz más conocido dentro del género es Vernor Vinge─ describe el agujero negro que se creará en la historia en el momento en que la inteligencia humana pueda ser digitalizada. Cuando la velocidad y el alcance de nuestra cognición se nivele con la curva de precios de los microprocesadores, nuestro «progreso» se multiplicará por dos cada dieciocho meses, y luego cada doce meses, y luego cada diez, y finalmente cada cinco segundos.

Las Singularidades son, literalmente, agujeros en el espacio de los cuales no puede emerger ninguna información, y así los escritores de ciencia ficción murmuran ocasionalmente acerca de lo difícil que es contar una historia planteada tras el advenimiento de la Singularidad. Todo será diferente. Lo cual significa que el ser humano será tan diferente que lo que significa estar en peligro, o ser feliz, o sentirse triste, o cualquiera de los otros elementos que hacen que la tensión estrujar-y-soltar de un buen relato sea irreconocible para nosotros, los pre-Singularizados.

Es un tema delicado sobre el que escribir. He tocado la Singularidad en un par de ocasiones, normalmente en compañía del forofo Singularizado Charlie Stross, el antipapa loco de la Singularidad. Pero estas historias tienen la misma relación con el futurismo que las novelas románticas con el amor: un punto de partida compartido, pero morfologías radicalmente distintas.

Por supuesto, la Singularidad no es sólo una idea fantástica con la que jugar en las páginas de los pulps; es un tema de muy seria erudición, futurismo e incluso ciencia.

Ray Kurzweil es una de tales grandes serias mentes eruditas. Es un empresario en serie que fundó toda una serie de negocios de éxito que hicieron adelantar los campos del software de reconocimiento óptico de caracteres (máquinas lectoras), la síntesis texto-a-habla, la simulación musical sintética de instrumentos, el reconocimiento del habla por ordenador y los análisis del mercado de valores. Curó su propia diabetes Tipo-II a través de una cuidadosa revisión de la literatura médica y la juiciosa aplicación de los primeros principios y la razón. Para un observador casual, Kurzweil parece ser la estrella de alguna novela tipo Heinlein, robando el fuego de los dioses y embarcándose en una búsqueda para llevar sus rebeldes ideas al público pese a los desaires del establishment, y haciéndose rico en el proceso.

Kurzweil cree en la Singularidad. En su manifiesto de 1990, “La era de las máquinas inteligentes”, Kurzweil argumentó persuasivamente que nos hallábamos al borde de una inteligencia mecánica significativa. Una década más tarde, usó el mismo argumento en un libro titulado La era de las máquinas espirituales [en español en editorial Planeta], cuya más audaz afirmación es que la capacidad de computación del mundo se ha estado multiplicando lentamente por dos desde que la corteza terrestre empezó a enfriarse (¡e incluso antes!), y que el intervalo de este multiplicarse por dos se ha ido haciendo más y más corto a cada año que pasaba, hasta el punto de que ahora lo vemos reflejado en la Ley de Moore de la industria informática, que predice que los microprocesadores se vuelven dos veces más poderosos por la mitad de su coste aproximadamente cada dieciocho meses. La alucinante velocidad de esta tendencia tiene una conclusión obvia: ordenadores más poderosos que la gente; más poderosos de lo que pueden llegar a ser comprendidos.

Ahora Kurzweil ha publicado otros dos libros, La singularidad está cerca, Cuando los humanos trascienden la biología (Viking, primavera de 2005) y Viaje fantástico: Vivir lo suficiente para vivir para siempre (con Terry Grossman, Rodale, noviembre de 2004). El primero es un mapa de carreteras técnico para crear las condiciones necesarias para ascender a la Singularidad; el segundo es un libro acerca de las tecnologías de prolongación de la vida que ayudará a las generaciones del baby-boom a vivir el tiempo suficiente para ver el día en que se consiga la inmortalidad tecnológica.

Veamos lo que significa ser un héroe a lo Heinlein.


#

Aún no sé si la Singularidad es un sistema de creencias espiritual o tecnológico. Por supuesto, tiene todos los aderezos de la espiritualidad. Si eres puro y kosher, si vives como corresponde y tu sociedad es justa, entonces vivirás para ver un momento de éxtasis cuando tu carne se descomponga y no deje atrás más que tu ka, tu alma, su consciencia, para que ascienda a un estado inmortal y puro.

Escribí una novela titulada Tocando fondo: en el reino mágico [en español en Grupo Editorial AJEC], donde los personajes pueden hacer backups de sí mismos y recuperarse a través de ellos si les ocurre algo malo, como pillar un resfriado o ser asesinados. Esto suscita un montón de preguntas existenciales, entre las cuales la más prominente es: ¿Sigues siendo tú mismo cuando eres restaurado
a partir de un backup?

La respuesta IA tradicional es el Test de Turing, inventado por Alan Turing, el pionero gay de la criptografía y de la inteligencia artificial que fue obligado por el gobierno británico a someterse a un tratamiento de hormonas para «curarle» de su homosexualidad, lo cual culminó en su suicidio en 1954. Turing penetró en el existencialismo para medir si una máquina es inteligente proponiendo un juego de salón: se coloca un ordenador detrás de una puerta cerrada con un programa de chat, y una persona se sienta detrás de otra puerta cerrada con su propio programa de chat, y ambos intentan convencer a un juez de que son gente real. Si el ordenador induce a un juez humano a pensar que es una persona, entonces, para todos los propósitos y significados, es una persona.

De modo que, ¿cómo sabes que el tú extraído del backup que has restaurado a un nuevo cuerpo ─o un tarro con un altavoz unido a él─ es realmente tú? Bueno, puedes formularle algunas preguntas, y si responde de la misma forma en que lo harías tú, entonces es que estás hablando con una copia fiel de ti mismo.

Suena bien. Pero el yo que envió su primera historia a la revista Asimov hace diecisiete años no podría responder a la pregunta: «¿Escribiste una historia para el Asimov?» de la misma forma en que puede hacerlo el yo de hoy. ¿Significa esto que ya no soy yo?

Kurzweil tiene la respuesta.

«Si sigues esta lógica, entonces, si tomáramos mi yo de hace diez años, no pasaría por ser yo mismo en un Test de Turing relativo a Ray Kurzweil. Pero una vez la tecnología de almacenamiento y descarga se halle disponible dentro de unas pocas décadas, podrás crear una copia de mi lo suficientemente perfecta, y pasará el Test de Turing. La copia no tiene que igualar tampoco el estado cuántico de cada una de mis neuronas. Si me contactas al día siguiente, pasaré el Test de Turing de Ray Kurzweil; sin embargo, ninguno de los estados cuánticos de mi cerebro será el mismo. Hay tantos cambios a los que cada uno de nosotros se ve sometido cada día, que no examinamos tan de cerca la suposición de que somos la misma persona.

»Cambiamos gradualmente el esquema de nuestros átomos y neuronas, pero cambiamos muy rápidamente las partículas de las que está hecho este esquema. Solemos pensar que, en el cerebro ─la parte física de nosotros asociada más de cerca con nuestra identidad─, las células cambian muy lentamente, pero resulta que los componentes de las neuronas, los túbulos y demás, cambian en sólo unos pocos días. Ahora soy un conjunto de partículas completamente distinto del que era hace una semana.

»La consciencia es un tema difícil, y siempre me sorprende cómo mucha gente habla rutinariamente de la consciencia como si pudiera ser testada científicamente de una forma fácil y sin problemas. Pero no podemos postular un detector de consciencia que no lleve incorporado en él algunas de las suposiciones acerca de la consciencia.

»La ciencia habla de observaciones objetivas de una tercera parte y de deducciones lógicas a partir de ellas. La consciencia es acerca de la primera persona, de la experiencia subjetiva, y hay un vacío fundamental aquí. Vivimos en un mundo de suposiciones acerca de la consciencia. Compartimos la suposición de que otros seres humanos son conscientes, por ejemplo. Pero eso se descompone cuando nos salimos fuera de los seres humanos, cuando consideramos, por ejemplo, los animales. Algunos dicen que sólo los seres humanos son conscientes, y que los animales son instintivos y mecánicos. Otros ven en un animal un comportamiento parecido al humano y consideran al animal como consciente, pero ni siquiera esos observadores atribuyen en general la consciencia a los animales que no son parecidos a los humanos.

»Cuando las máquinas son lo suficientemente complejas como para poseer respuestas reconocibles como emociones, esas máquinas serán más parecidas a los seres humanos que los animales.»

La Singularidad de Kurzweil funciona así: Los ordenadores se vuelven mejores y más pequeños. Nuestra habilidad de medir el mundo gana precisión y se vuelve más barata. Finalmente podemos medir el mundo dentro del cerebro y hacer una copia de él en un ordenador que sea tan rápido y complejo como un cerebro, y voilà, la inteligencia.

Aquí en el siglo XXI nos gusta vernos a nosotros mismos como cerebros ambulantes, conectados a marionetas de carne que arrastran nuestra preciosa materia gris de un lado para otro. Tendemos a pensar en esa materia gris como trascendentemente compleja, y pensamos en ella como el elemento que nos hace nosotros.

Pero los cerebros no son tan complejos, dice Kurzweil. Ya estamos empezando a desentrañar sus misterios.

«Parece que hemos hallado un área del cerebro íntimamente asociada con las emociones del más alto nivel, las células huso, profundamente embutidas en la masa cerebral. Hay decenas de miles de ellas, y abarcan todo el cerebro (quizás ochenta mil en total), lo cual es un número increíblemente pequeño. Los bebés no tienen ninguna, la mayoría de los animales no tienen ninguna, y probablemente sólo evolucionaron a lo largo del último millón de años o así. Algunas de las emociones de alto nivel que son profundamente humanas proceden de ellas.

»Turing tuvo la intuición correcta: basar el test para la inteligencia en el lenguaje escrito. El Test de Turing funciona realmente. Una novela se basa en el lenguaje. Con el lenguaje puedes conjurar cualquier realidad, mucho más que con imágenes. Turing casi vivió para ver a los ordenadores efectuar un buen trabajo actuando en campos como las matemáticas, el diagnóstico médico y demás, pero esas tareas eran mucho más fáciles para una máquina que demostrar siquiera la maestría de un niño en el lenguaje. El lenguaje es la auténtica encarnación de la inteligencia humana.»


#

Si no somos tan complejos, entonces sólo es cuestión de tiempo el que los ordenadores se vuelvan más complejos que nosotros. Cuando llegue eso, nuestros cerebros serán modelables en un ordenador, y entonces es cuando empieza la diversión. Ésa es la tesis de Máquinas espirituales, que incluye incluso una línea temporal (estilo Heinlein) que llega hasta nuestros días.

Bien, puede ser que un cerebro humano contenga n puertas lógicas y funcione a x ciclos por segundo y almacene z petabytes, y que n y x y z estén a nuestro alcance. Es posible que podamos tomar un cerebro y registrar su posición y las relaciones de todas las neuronas y elementos subneuronales que constituyen un cerebro.

Pero hay también un número casi infinito de formas de modelar un cerebro en un ordenador, y sólo una fracción finita (o posiblemente inexistente) de ese espacio cederá una copia consciente del cerebro de carne original. Normalmente los escritores de ciencia ficción se saltan este paso: Heinlein, en La Luna es una cruel amante, se limita a utilizar el truco de que, una vez el ordenador se vuelve lo suficientemente complejo, con los suficientes «números al azar», simplemente despierta.

Los programadores de software son un poco más escépticos. Los ordenadores nunca han sido conocidos por su habilidad de programarse a sí mismos: tienden a ser menos listos que la gente que escribe sus programas.

Pero hay técnicas para conseguir que los ordenadores se programen a sí mismos, basadas en la evolución y en la selección natural. Un programador crea un sistema que escupe montones ─miles o incluso millones─ de programas generados al azar. A cada uno se le da la oportunidad de realizar una tarea determinada (digamos ordenar una lista de números del mayor al menor), y los que resuelven mejor el problema son conservados, mientras que los demás son borrados. Luego los supervivientes son usados como base para una nueva generación de descendientes mutados al azar, cada uno de ellos basado en elementos del código que los ha precedido. Ejecutando a la vez muchos programas variados al azar, y eliminando los de menos éxito y regenerando muy rápidamente la
población de los vencedores, es posible evolucionar un software efectivo que actúe tan bien o mejor que los escritos por autores humanos.

De hecho, la informática evolutiva es un campo prometedor y excitante que está consiguiendo auténticos logros a través de toda una serie de ramificaciones colaterales como la «optimización del hormiguero» y enfoques similares que están mostrando buenos resultados en campos tan diversos como el pilotaje de UAVs [vehículos aéreos no tripulados] militares y las cadenas robot de pintura de coches en las plantas automovilistas.

De modo que si aceptamos la premisa de Kurzweil de que la informática se está volviendo más barata y más abundante que nunca, entonces, ¿por qué no usar simplemente los algoritmos evolutivos para evolucionar la mejor manera de modelar un cerebro humano escaneado que «despierte» como el ordenador Mike de Heinlein?

De hecho, éste es el punto crucial de la argumentación de Kurzweil en Máquinas espirituales: si poseemos una informática a nuestra disposición y un modelo detallado de un cerebro humano, sólo necesitamos combinarlos, y de ello brotará el mecanismo en el que podamos descargar nuestra consciencia para su almacenaje digital y trascender así para siempre nuestra débil y fastidiosa carne.

Pero es una trampa. Los algoritmos evolutivos dependen de los mismos mecanismos que la evolución en el mundo real: las variaciones de la herencia en los candidatos y un sistema que elimina los candidatos menos aptos. Esto último ─el factor de adaptabilidad que determina qué individuos en una camada procrearán y cuáles desaparecerán─ es la clave de un sistema evolutivo de éxito. Sin ello, no hay ninguna presión sobre el sistema para lograr la meta deseada: sólo mutaciones y más mutaciones.

Pero, ¿cómo puede una máquina evaluar cuál de un billón de modelos de un cerebro humano es «más parecido» a una mente consciente? O mejor aún: ¿Cuál es más parecido al individuo cuyo cerebro es tomado como modelo?

«Es un juego de manos en Máquinas espirituales ─admite Kurzweil─. Pero en La Singularidad está cerca presento un examen en profundidad sobre lo que sabemos acerca del cerebro y cómo modelarlo. Nuestras herramientas para comprender el cerebro están sometidas a la Ley de los Resultados Acelerados, y hemos hecho más progresos en el cerebro de lo que la gente llega a darse cuenta.» Es un sabroso kurzweilismo el que observa que una mejora en la tecnología ofrece herramientas para mejorar dicha tecnología, una y otra vez, de tal modo que lo que progresa engendra un progreso mayor y más rápido.

»La resolución de los escáneres del tejido humano, tanto espacial como temporal, se está multiplicando por dos cada año, y lo mismo nuestro conocimiento de cómo funciona el cerebro. El cerebro no es una gran red neuronal, el cerebro es varios cientos de regiones diferentes, y podemos comprender cada región, podemos modelar las regiones con las matemáticas, la mayor parte de las cuales tienen algún nexo con los sistemas del caos y de la autoorganización. Esto se ha realizado ya para un par de docenas de regiones de entre los varios cientos.

»Tenemos un buen modelo de una docena o así de regiones de la corteza auditiva y visual, de cómo descomponemos las imágenes hasta películas de muy baja resolución basadas en el reconocimiento de los esquemas. Resulta interesante el que en realidad no vemos cosas, sino que esencialmente las alucinamos en detalle a partir de lo que vemos de esos indicios de baja resolución. Pasadas las primeras fases de la corteza visual, los detalles no alcanzan el cerebro.

»Estamos recibiendo de forma exponencial más conocimientos. Podemos conseguir escáneres detallados del trabajo de las neuronas in vivo, y estamos empezando a comprender los caóticos algoritmos que sustentan la inteligencia humana. En algunos casos estamos consiguiendo una actuación comparable de regiones del cerebro en simulación. Esas herramientas seguirán creciendo en detalle y sofisticación.

»Podemos confiar en emplear la ingeniería genética a la inversa con el cerebro en un plazo de unos veinte años. La razón de que esa ingeniería genética a la inversa no haya contribuido mucho a la inteligencia artificial es porque hasta recientemente no disponíamos de las herramientas adecuadas. Si le doy un ordenador y unos cuantos sensores magnéticos y le pido que emplee con ellos la ingeniería genética a la inversa, puede que imagine usted que un dispositivo magnético gira cuando es salvado un archivo, pero nunca acabará de entender el manual de instrucciones. Sin embargo, una vez haya empleado totalmente la ingeniería genética a la inversa en el ordenador, podrá expresar sus principios operativos en sólo unas pocas docenas de páginas.

»Ahora hay nuevas herramientas que nos permiten ver las conexiones interneuronales y su señalización, in vivo y en tiempo real. Simplemente estamos consiguiendo estas herramientas, y existe una muy rápida aplicación de dichas herramientas para obtener los datos.

»Dentro de veinte años dispondremos de simulaciones realistas y modelos de todas las regiones del cerebro y comprenderemos cómo funcionan. No copiaremos ciega o automáticamente esos métodos, los comprenderemos y los usaremos para mejorar nuestro conjunto de herramientas IA. Así que aprenderemos cómo funciona el cerebro, y luego aplicaremos las sofisticadas herramientas que obtendremos a medida que descubrimos cómo funciona el cerebro.

»Una vez comprendamos el sutil principio científico, podremos aislarlo, amplificarlo y expandirlo. El aire circula más rápido sobre una superficie curva: a partir de esta intuición aislamos, amplificamos y expandimos la idea e inventamos el viaje aéreo. Haremos lo mismo con la inteligencia.

»El progreso es exponencial ─no sólo una medida del poder de computación, número de nodos de Internet y puntos magnéticos en un disco duro─, el índice del cambio paradigmático se está acelerando también, multiplicándose por dos a cada década. Los científicos contemplan un problema e intuitivamente llegan a la conclusión de que, puesto que hemos resuelto un 1 por ciento del mismo en el último año, deberán pasar cien años hasta que el problema se haya agotado: pero el índice de progreso se multiplica por dos cada década, y el poder de las herramientas de la información (en precio-rendimiento, resolución, anchura de banda y demás) se multiplica por dos cada año. La gente no capta el crecimiento exponencial, ni siquiera los científicos. Durante la primera década del proyecto del genoma humano, sólo resolvimos un 2 por ciento del problema, pero hemos resuelto el restante 98 por ciento en cinco años.»


#

Pero Kurzweil no cree que el futuro llegue precipitadamente. Como observó William Gibson, «El futuro está aquí, sólo que no está distribuido regularmente.»

«Por supuesto, será interesante tomar un cerebro humano, escanearlo, rastrearlo, y ejecutarlo en otro substrato. Eso terminará ocurriendo.

»Pero el escenario más sobresaliente es que gradualmente nos fundiremos con nuestra tecnología. Usaremos nanorrobots para matar patógenos, luego para matar células cancerígenas, y luego se meterán en nuestro cerebro y harán cosas beneficiosas allí como aumentar nuestra memoria, y muy gradualmente se volverán más y más sofisticados. No será un solo gran salto, pero en definitiva será un gran salto formado por muchos pequeños saltos.

»En La Singularidad está cerca describo el mundo radicalmente distinto de 2040, y cómo llegaremos allí cambio beneficioso a cambio beneficioso. La Singularidad será gradual, suave.

»En realidad se trata de aumentar nuestro pensamiento biológico con pensamiento no biológico. Poseemos una capacidad de 1026 a 1029 cálculos por segundo (cps) en los aproximadamente 1010 cerebros humanos en la Tierra, y ese número no cambiará mucho en cincuenta años, pero el pensamiento no biológico se abrirá simplemente camino a través de ello. En 2049, la capacidad de pensamiento no biológico será del orden de mil millones de veces eso. Alcanzaremos el punto en el cual el biopensamiento sea relativamente insignificante.

»La gente no arrojó a un lado sus máquinas de escribir cuando aparecieron los procesadores de textos. Siempre ha habido un solapamiento…, se necesitará tiempo antes de que nos demos cuenta de lo mucho más poderoso que será al final el pensamiento no biológico.»


#

Está bien hablar de todo lo que podremos hacer con la tecnología, pero es mucho más importante hablar de lo que se nos permitirá hacer con la tecnología. Piensen en la alucinación global causada por el advenimiento relativamente trivial de las herramientas para compartir libremente archivos de igual a igual. Las universidades están blindando electrónicamente sus campus y castigando a sus estudiantes de ciencias informáticas por escribir software legítimo de aplicación general; abuelas y niñas de doce años están perdiendo los ahorros de toda su vida; la intimidad y los procesos legales han salido volando por la ventana sin siquiera decir adiós.

Incluso los peores enemigos de las redes P2P admiten que ésta es una tecnología generalista con buenos y malos usos, pero cuando surge una nueva tecnología engendra a menudo una respuesta que castiga a un número infinito de personas inocentes para agarrar a los culpables.

¿Qué va a ocurrir cuando el paradigma de la nueva tecnología se convierta en una superinteligencia trascendente? ¿Hallarán justificado las fuerzas reaccionarias arrasar todo el ecosistema para eliminar unos pocos parásitos que están haciendo cosas negativas con las nuevas herramientas?

«Los ecosistemas complejos siempre tendrán parásitos. El malware [software malicioso] es el campo de batalla más importante hoy.

»Todo se convertirá en software: los objetos serán maleables, pasaremos mucho tiempo en Realidad Virtual, y el compupensamiento adquirirá órdenes de magnitud de importancia por encima del biopensamiento.

»El software ya es lo bastante complejo teniendo un terreno ecológico que ha emergido tal como lo ha hecho en el biomundo.

»Es en parte por eso por lo que la tecnología no está regulada y la gente tiene acceso a las herramientas para crear malware y las medicinas para tratarlo. Los virus del software de hoy son más inteligentes y más furtivos y distan mucho de ser ingenuos. Son muy listos.

»Pero ahí está el meollo del asunto: No verán a la gente abogando por cerrar Internet debido a que el malware es tan destructivo. Quiero decir, el malware es potencialmente más que un engorro: los sistemas de emergencia, el control del tráfico aéreo y los reactores nucleares están controlados por un software vulnerable.Es un asunto importante, pero el daño potencial todavía es tan sólo una pequeña fracción de los beneficios que obtenemos de Internet.

»Espero que las cosas seguirán así, que Internet no se convertirá en un espacio regulado como la medicina. El malware no es el asunto más importante al que se enfrenta la sociedad humana hoy en día. Los diseñadores de biovirus lo son. La gente está preocupada por las WMD [armas de destrucción masiva], pero las más terribles WMD son un virus biológico de diseño. En los laboratorios universitarios existen los medios para crear virus destructivos que entren en erupción y se difundan silenciosamente con largos períodos de incubación.

»Y lo más importante: un bioterrorista en potencia no tiene que pasar su malware a través del proceso regulador de aprobación de la FDA [la Administración para Alimentos y Medicamentos de los Estados Unidos], pero los científicos que trabajan para controlar el biomalware sí deben hacerlo.

»En Un mundo feliz de Aldous Huxley, la racionalización del sistema totalitario era que la tecnología era demasiado peligrosa y necesitaba ser controlada. Pero eso sólo hace que la tecnología se vuelva clandestina, donde se hace menos estable. Las regulaciones dan un filo de poder a los irresponsables que no escuchan de todos modos las regulaciones.

»La forma de poner más piedras en el lado de la defensa de la balanza es dar más recursos a las tecnologías defensivas, no crear un régimen totalitario de control draconiano.

»Abogo por un programa de cien mil millones de dólares para acelerar el desarrollo de la tecnología de los virus antibiológicos. La forma de combatir todo esto es desarrollar amplias herramientas para destruir los virus. Tenemos herramientas como la interferencia del ARN, descubierta hace apenas dos años para bloquear la expresión genética. Podemos desarrollar medios para secuenciar los genes de un nuevo virus (secuenciar el SARS [síndrome respiratorio agudo severo] sólo tomó treinta y un días) y responde a él en cuestión de días.

»Piensen en ello. No hay ninguna FDA para el software, ninguna certificación para los programadores. ¡Aunque el gobierno está pensando en ello! La razón de que la FCC [la Comisión Federal de Comunicaciones] esté estudiando decretos al respecto ─un sistema para restringir lo que un ordenador puede hacer mediante bloqueos en el hardware integrados en la placa madre─ es que la tecnología se está ampliando para cubrirlo todo. Así que ahora tenemos burócratas en comunicaciones, burócratas en biología, todos ellos deseando regular los ordenadores.

»La biología sería mucho más estable si nos alejáramos de las regulaciones, que son extremadamente irracionales y onerosas y no equilibran adecuadamente los riesgos. Muchos medicamentos no se hallan hoy disponibles pese a que deberían estarlo: la FDA siempre desea saber lo que ocurre si aprobamos esto y resulta que se convierte en una situación como la talidomida que la ponga en evidencia ante la CNN.

»Nadie pregunta acerca del peligro que ciertamente se incrementará a causa de retrasar un tratamiento uno o dos años. No hay ningún peso político en absoluto, la gente ha estado muriendo de enfermedades como infartos y cánceres durante tanto tiempo como llevamos vivos. Los riesgos atribuibles tienen 100 1000 más peso que los riesgos no atribuibles.»


#

Esto, ¿es espiritualidad o ciencia? Quizá sea una mezcla de ambas…, más sombras de Heinlein, esta vez las extrañas religiones fundadas por la gente que se tomó Forastero en tierra extraña demasiado en serio.

Después de todo, éste es un sistema de creencias que dicta un medio por el cual podemos cuidar virtuosamente de nuestros cuerpos y vivir el tiempo suficiente para trascenderlos. Es un sistema de creencias que se preocupa por la intromisión de los no creyentes, que trabaja para minar sus metas a través de sistemas irracionales predicados sobre su incredulidad. Es un sistema de creencias que pregunta y responde a la cuestión de qué significa ser humano.

No es sorprendente que la Singularidad haya venido a ocupar tanto espacio en la narrativa de ciencia ficción en estos años. Ciencia o espiritualidad, difícilmente podemos pedir un tema elaborado mejor a la medida a través de la especulación tecnológica y el drama.


hay 4 comentarios para “Especial H2blOg: La Singularidad Tecnológica”

  1. Un parell d’enllaços « El blog de Nebrios on julio 4, 2008 7:21 pm

    […] El segon és d’un altre blog, en aquest cas de la associació Proyecto Líquido, que es dedica als relats de ciència ficció, dels quals parla de vegades en el seu blog, però sovint parlen també de ciència sense ficció. En qualsevol cas, em sembla interessant, i si us avorriu, us recomano l’article La Singularidad Tecnológica. […]

  2. PROYECTO LÍQUIDO | H2blOg | Descarga esta Historia #4: Flores de Invernadero por Mike Resnick on agosto 30, 2008 3:13 pm

    […] pronto aquí, en H2blOg) y que podría significar el fin de la historia humana. A esto él lo llama la Singularidad Tecnológica y considera que ocurrirá aproximadamente para el 2045. La transferencia de la conciencia […]

  3. PROYECTO LÍQUIDO | H2blOg | Singularidad Tecnológica: Cuando los humanos trasciendan la biología (entrevista a Ray Kurzweil) on septiembre 24, 2008 12:13 am

    […] continuación del especial sobre La Singularidad Tecnológica que publicamos hace unos meses, el reconocido científico, inventor y futurista Ray Kurtzweil nos […]

  4. La singularidad: una visión entusiasta « Proyecto A1 on junio 25, 2009 9:13 am

    […] el blog H2blog, hay un “Especial H2blOg: La Singularidad Tecnológica”, y una entrevista a Kurzweil: “Singularidad Tecnológica: Cuando los humanos trasciendan la […]

trackback URI | RSS de las opiniones

nombre (required)

email (required)

website

opina


La mejor forma de mantenerte actualizado de todo lo que hacemos es la nueva lista de Proyecto Líquido y Fractal. Te puedes suscribir aquí.


Recibe H2blOg por e-mail:


Entregado por FeedBurner






HERNÁN ORTIZ. Co-fundador de encuentro Fractal y Proyecto Líquido. Trabajo con historias. E-mail: hernan (arroba) proyectoliquido.net
Twitter: @hernanpl

AGUA/CERO: una antología de Proyecto Líquido



archivos