Ciberseguridad, Privacidad del Internauta y Delitos Informáticos

Puedes encontrarnos aquí

Puedes encontrarnos aquí
Ciberseguridad, Privacidad del Internauta y Delitos Informáticos

Buscar este blog

domingo, 17 de febrero de 2013

Colapso o Singularidad Tecnológica



Contenidos
  • Singularidad tecnológica
  • Raymond Kurzweil
  • Ley de los rendimientos acelerados (LRA)
  • Hitos y fechas para la Singularidad
  • ¿Preocupa el Colapso Tecnológico?
  • Un poco de historia
  • Transhumanismo
  • Inteligencia Artificial
  • AGI
  • La rebelión de las máquinas puede ser real
  • Toda la vida en un chip: Download del Cerebro
  • ¿Superará pronto Google el test de Turing?
Relacionados:CiberneticaRobóticaBionicaColapso TecnológicoInteligencia Artificial, BiometríaGrafenoNanotecnologíaTendencias Tecnológicas de futuro,Breve Glosario Nanotecnológico
Singularidad tecnológica
La singularidad tecnológica se refiere a el momento temporal en el que simplemente la inteligencia artificial supera a la de los humanos y comienza por extensión a «superarse a sí misma».
El término no es nuevo y fue acuñado por el matemático y novelista Vernor Vinge en 1982 y popularizado posteriormente por otros autores de la ciencia ficción como él. Como resumió Bill Gates, es «una forma optimista y radical de ver el futuro del desarrollo humano». La idea es tan compleja que existen libros y libros sobre ella, además de innumerables menciones y referencias con ese y otro nombre en miles de imaginativas novelas sobre el lejano futuro.
ES un acontecimiento que ocurrirá en algunos años en el que se predice que el progreso tecnológico cambiará el mundo de manera tal que modificará radicalmente la vida como la conocemos.
Así los caminos predecibles a esta singularidad vienen de varias fuentes:
Superinteligencia artificial: basada en la Ley de Moore, que dice que la capacidad de los microchips se duplica cada dos años, lo que conducirá inevitablemente a que las máquinas hacia el año 2.020 superen la capacidad del cerebro humano para procesar información.
Superinteligencia colectiva: donde esten conectados en redes los humanos y las máquinas, cuyo comienzo ya hemos presenciado, y es Internet.
Superinteligencia híbrida: la interconexión entre humanos y computadoras, tales como protesis e implantes de chips, lo cual nos conduce al cyborg, humanos tecnologicamente mejorados.
Por otro lado segun Vernor Vinge, la Singularidad se producirá como una combinación de diferentes fenómenos:
* Escenario IA: Crearemos una inteligencia artificial (IA) superhumana en ordenadores. Aumentaremos la inteligencia humana mediante interfaces ordenador/persona. Así conseguiremos una Inteligencia Amplificada (IA)
Escenario biomédico: Incrementaremos nuestra inteligencia mejorando nuestras operaciones neurológicas en nuestros cerebros.
Escenario Internet: La humanidad, sus redes, ordenadores y bases de datos serán suficientemente efectivos como para ser considerados como un ser superhumano.
Escenario de una Gaia Digital: La red de microprocesadores móviles (o embebidos) serán suficientemente efectivos como para considerarlos como un ser superhumano.
Este superdesarrollo trae aparejados varios problemas, entre ellos que las tecnologías autónomas, o sea, maquinas que se autoconstruyen y se autoreparan a si mismas, se descontrolen, ocasionando en la realidad las consecuencias imaginadas en muchas películas de ciencia ficción.
La singularidad tecnológica se puede dividir en varias ramas de avance tecnológico. Una de ellas se une a una especie de transhumanismo: el momento en que los seres humanos y las máquinas nos combinaremos unos con otros, ampliando la capacidad de nuestros cuerpos con tecnología. En otra variante, son los desarrollos en genética los que nos permiten a los humanos superar nuestras limitaciones cerebrales para volvernos «superinteligentes» entrando a partir de ese momento en un nuevo ciclo de creación de más y más inteligencia.
Raymond Kurzweil, un inventor y experto en inteligencia artificial y tecnología, es uno de sus principales defensores y popularizadores. En sus libros La era de las máquinas inteligentes (1990) y La singularidad está cerca (1999) expuso todas sus ideas y teorías, con predicciones que en muchos casos resultaron acertadas, aunque muchas otras están todavía por comprobarse o han fallado.
Los detractores de las teorías de Kurzweil, entre los que están el científico y también experto en inteligencia artificial Douglas Hofstaeder critican las diversas teorías relacionadas con la singularidad puramente tecnológica en varios frentes. Muchos creen que una inteligencia artificial nunca podrá superar a una inteligencia humana. Otros creen que progresos como los de miniaturización y aceleración de los microprocesadores se enfrentarán a límites absolutos, tales como que no es posible hacer circuitos más pequeños que el tamaño de los átomos.
Quienes proponen la singularidad tecnológica como un punto al que inevitablemente hemos de llegar como raza en algún momento del cercano futuro exponen todo tipo de gráficos que muestran el desarrollo exponencial de un montón de aspectos de nuestra evolución: la capacidad de nuestros cerebros;la potencia de los ordenadores, que se multiplica cada pocos meses mientras se reduce a la mitad su precio (Ley de Moore ), etc. Estos opinan que, debido al crecimiento exponencialmente acelerado que sufre nuestra sociedad, los sistemas de información que disponemos, redes sociales, etc, esto ocurrirá dentro de pocas décadas.
A algunos les costará creerlo, a otros se negaran a aceptarlo, pero la especie humana se esta acercando a la singularidad tecnológica, momento en el que desaparecerá la frontera entre la inteligencia biologica y la artificial.

De el han dicho muchos personajes muy representativos e influyentes, tales como presidentes de gobierno, o el mismo Bill Gates, que es realmente la persona que mejor predice el futuro y al mismo tiempo es el mejor inventor de aparatos para que los sordos puedan oir.
Según E. Punset, famoso divulgador científico español, es una persona que sabe explotar como nadie el hecho de que el futuro es la fusion entre nuestra biologia y la tecnología. Estamos fusionando lo que esta capacidad biologica del cerebro para reconocer distinas estructuras y para procesar en cascada o en paralelo procesos distintos con una capacidad casi infinita de las máquinas para rememorar y archivar datos. Esto es la gran singularidad el futuro que viene.
Los cientificos, los que trabajan precisamente en la memoria, acaban de descubrir que no solamente la memoria nos ayuda a recordar el pasado, sino también a imaginar el futuro"

Raymond Kurzweil
"He trabajado en las maquinas de lectura para ciegos durante 33 años. En 1976 lance la primera maquina de lectura para ciegos. Tenía el tamaño de un lavavajillas. Todavía conservo un modelo de entonces. Hace unas semanas lanzamos una maquina de lectura en un telefono movil que pesa poco más de 100 gramos. CAbe por tanto en el bolsillo de la camisa. Tiene poco más de 15 cm de tamaño. El funcionamiento es simple. Haces una fotografia de lo que quieres leer, puede ser un libro o una señal y te lo lee en voz alta."


"Esa es la naturaleza de la inteligencia. Anticipar el futuro. Tenemos mecanismos de predicción de lo que sucederá incorporados en el cerebro. En eso consiste la inteligencia. Sin embargo hay un problemas con nuestra predicciones y es que las personas predicen las cosas de una manera lineal. Creen que todo sucederá al mismo ritmo que ha venido sucediendo. Eso nos dice la intuición. Así lo tenemos codificado. Pero no se corresponde con la realidad. Las cosas van cada vez más rápido y la gente no tiene esa intuición. Por eso cuando te marchas durante un largo periodo de tiempo pasan más cosas de las que te esperas.
Ley de los rendimientos acelerados (LRA)
Un tema central en mis ideas sobre el futuro es lo que denomino la LRA, que tiene que ver con las TI. En el momento en el que un ámbito de la ciencia o de la tecnología se convierte en información, se acelera y crece exponencialmente. Esto no corresponde con nuestra intuicion.

Tomemos por ejemplo nuestra biología, la salud y la medicina. En el pasado no funcionaban como tecnologias de la información, sino más bien como ensayo y error. Por ese motivo crecian linealmente. No exponencialmente. Pero ahora la salud y la biología son tecnologias de la información.

Hemos descifrado el genoma, podemos desactivar genes con la interferencia por ARN. Podemos añadir nuevos genes mediante la terapia genetica. Podemos reprogramar nuestros genes, simular la biología por ordenador. Todo esto es nuevo y no existía hace unos años. Hoy la salud y la biología son tecnologías de la información y crecen exponencialmente. Esto significa que seran 1000 veces más potentes en 10 años y 1.000.000 de veces más en 20 años. Básicamente doblaran su potencia cada año.
Actualmente ya estamos dando los primeros pasos de una revolución insospechada hace apenas unos años. Entre nosotros ya caminan personas que, técnicamente, son cyborgs. Personas que dependen de la tecnologia para realizar alguna función biologica. El ojo bionico por ejemplo ya es una realidad. Con un chip implantado en el ojo, algunos ciegos ya pueden recuperar una parte muy pequeña de su visión. El dispositivo consta de una cámara instalada en unas gafas que emite una señal a un procesador de video. Esta se convierte en una señal electronica que vuelve a las gafas y que se transmite de maenra inalambrica a un chip implantado en el ojo que estimula las neuronas de la retina dañada. La señal sigue su camino natural por el nervio óptico hasta llegar al cortex visual donde es procesada. El dispositivo desarrollado en EEUU, va por su segunda generación y permite a personas totalmente ciegas recuperar la visión de luces y sombras y de algunas figuras. Parece poco pero es lo suficiente para darle cierta autonomía. La próxima generación del chip, esperado para dentro de un par de años, permitirá reconocimiento de caras.
También es posible recuperar la audición gracias a implantes cerebrales. En 2008, la Clínica Universitaria de Navarra fué pionera al instalar un implante en una niña de 13 meses que había nacido sorda por ausencia de nervios auditivos. ESte micrófono capta sonidos y los envía aun procesador que los codifica en impulsos electricos. EStos impulsos se transmiten a un receptor en el interior del craneo y luego son guiados a unos electrodos implantados en el tronco cerebral de donde la información sigue por via natural al cortex auditivo.
Los avances de este tipo son cada vez más comunes. Muchas de estas técnicas, actualmente en desarrollo, pronto se emplearán masivamente.
Hitos y fechas para la Singularidad
Es un proceso continuo. Tenemos por delante cun campo completamente nuevo en el que se producen avances apasionantes cada día. No se trata de que vaya a suceder todo de pronto, pero de aquí a 15 años, podremos reprogramar nuestros genes para eliminar los que provocan enfermedad y añadir nuevos genes para mantenernos sanos. Y llegaremos a un punto en el que sumemos un año a cada año de la esperanza de vida humana.

Si ahora pasamos al 2.029, tendremos ordenadores tan inteligentes como los humanos, lo que incluye inteligencia emocional. Seran divertidos, entenderan nuestras emociones, podremos hablarles, serán como personas. Pero lo importante es que empezaremos a ponerlos dentro de nuestros cuerpos y cerebros para mantenernos sanos. Tendremos nanobots, dispositivos del tamaño de globulos rojos que nos mantendran sanos desde dentro. Si esto suena muy futurista, hay que decir que hoy en día ya hay docenas de experimentos que lo han hecho con animales con la primera generación de dispositivos.

Los científicos trabajan para curar la diabetes de tipo uno en ratones con dispositivos del tamaño de un globulo rojo. Pronto empezaremos a controlarlo. Hay ya un dispositivo de tamaño similar que puede detectar las células cancerigenas y destruirlas. Por ahora solo son experimentos, pero a finales de la década de 2020 tendremos este tipo de dispositivos circulando por la sangre para mantenernos sanos desde dentro.

Y si ahora vamos más adelante, hasta la decada de 2030 tendremos estos componentes en el cerebro e interactuaran con nuestras neuronas biológicas. Ya hay personas que son ciborgs, que tienen máquinas en el cerebro. Por ejemplo pacientes de Parkinson que llevan un dispositivo del tamaño de un guisante que sustituye las neuronas destruidas por la enfermedad y funciona como la región cerebral original. Y la última generación de este implante cerebral (ahora estan en la cuarta generación), permite descargar nuevo software para el ordenador en el interior del cerebro desde fuera del paciente. La generación anterior no lo permitía. Y esto es algo que ya se puede hacer en la actualidad. No tiene el tamaño de un glóbulo rojo, sino de un guisante, y por tanto tiene que implantarse con cirugia, pero si seguimos avanzando así 20 años, otra tendencia exponencial es que estos dispositivos son cada vez más pequeños.

Además cuando queramos crear una realidad virtual, los nanobots desconectarán las señales procedentes de nuestros sentidos reales y las sustituirán por las señales que el cerebro recibiría si estuvieramos realmente en el entorno virtual y sentiremos realmente que estamos en ese entorno virtual. Y no solamente será visual o auditivo. También será táctil. Implicará todos los sentidos. Será tan real como la realidad. Y no tendremos porqué tener el mismo aspecto, podremos tener la apariencia de otra persona en un entorno de realidad virtual. Será como Matrix. Pasaremos mucho tiempo en entornos virtuales y seremos más inteligentes, porque esos nanobots interactuaran con nuestras neuronas biologicas y mejoraran nuestra memoria y nuestras capacidades racionales.

Y si ahora imaginamos la decada de 2.040, la mayoria de lo que habrá en nuestros cerebros no será biológico. Asi que en última instancia nuestros cerebros seran como los ordenadores actuales solo que mucho más potentes, probablemente miles de millones de veces más potentes y podremos hacer copias de seguridad. De aquí a cincuenta años la gente pensará que las personas de hoy fueran por el mundo sin hacer copìas de seguridad de su archivo mental. Ahora mismo la computación avanza muchísimo. Acabará superando nuestra capacidad mental.

La pregunta es: ¿Con qué rapidez de puede propagar nuestra inteligencia a otros cuerpos celestes? Lo que sabemos hoy en día es que hay un limite de velocidad en el universo: la velocidad de la luz. Se trata de hecho de un límite de velocidad. No se puede ir más rápido que la velocidad de la luz. Pero se puede encontrar un atajo a través de un agujero de gusano para llegar más rapidamente a un lugar que aparentemente esta muy lejos.

Si esto es así, entonces podemos llegar a esos lugares remotos más rapidamente y podremos llegar a alcanzar todos los rincones del universo en mucho menos tiempo. Y a la larga podremos difundir nuestra inteligencia de un modo no biológico a todo el universo quizá en unos pocos siglos. Entonces el universo despertará, porque ahora solamente consiste en un montón de materia inerte. La inteligencia constituye el objetivo del universo y en última instancia el universo terminara convirtiéndose en una entidad muy inteligente y se superará la mecánica celeste mediante ingeniería por todo el universo.

Para entender la viabilidad de esto, pensemos que ya estamos haciendo ingeniería a escala planetaria, y más adelante en este siglo haremos también ingeniería por todo el sistema solar, luego por toda la galaxia y finalmente por todo el universo. Entonces utilizaremos nuestra inteligencia para superar esta mecánica celeste tan poco inteligente.
¿Preocupa el Colapso Tecnológico?
El Centro de Estudio de Riesgo Existencial (CSER) va a investigar los peligros que suponen para el hombre nuevos campos como la biotecnología, la vida artificial, la nanotecnología y el cambio climático como resultado de la actividad del ser humano. “Muchos científicos están preocupados porque los desarrollos de la tecnología humana podrían suponer pronto nuevos peligros de extinción de toda nuestra especie ”, explican.
La seriedad que implica todos estos riesgos es “difícil de evaluar”, pero en sí misma “parece una causa de preocupación” debido a “lo mucho que está en juego”, aseguró uno de los científicos. Además, creen que el asunto requieren más investigaciones de las que actualmente recibe. Por este motivo, se unieron un filósofo (Huw Price, profesor de Filosofía), un científico (Martin Rees, profesor emérito de Cosmología y Astrofísica) y un emprendedor del campo del software (Jaan Tallin, uno de los fundadores de Skype). A ellos se les suman siete asesores de Cambridge y otros seis ajenos a la institución. La idea es establecer un centro de investigación multidisciplinario en la Universidad en el que se puedan estudiar y mitigar este tipo de riesgos.
En 1957, los científicos estadounidenses Allen Newell y Herbert Simon habían lanzado una inquietante predicción : “En diez años las máquinas serán campeonas del mundo de ajedrez, compondrán música de valor estético, descubrirán teoremas matemáticos, etcétera”. En aquellos años la inteligencia artificial era vista con cierto temor, mientras que hoy se convive gozosamente con la tecnología , a tan punto que se deposita la cualidad de smart (inteligente, en inglés) en los teléfonos celulares.
El vaticinio de Newell y Herbert tardó 40 años en materializarse. En 1997, cuando la supercomputadora Deep Blue, desarrollada por IBM, derrotó al campeón mundial de ajedrez Gari Kaspárov, muchos creyeron que el momento en el que la inteligencia artificial superara a la humana estaba a la vuelta de la esquina. Algo similar se pensó cuando, en 2001, Watson –otro invento de IBM– venció a dos experimentados jugadores en el concurso televisivo Jeopardy!
Hasta ahora la distopía no ha llegado , pero la pregunta sobre el desarrollo futuro de las computadoras parece lo suficientemente nutritiva como para seducir a los expertos de Cambridge. “Parece una predicción razonable que en algún momento de este siglo o el próximo la inteligencia escapará de las limitaciones de la biología ”, aseguró el filósofo Price. “Y, cuando eso ocurra, ya no seremos las cosas más inteligentes del lugar , lo que nos pondría a merced de máquinas que, si bien no son maliciosas, no nos incluyen entre sus intereses”, agregó. Por eso, aunque parezca un riesgo lejano, Price, Rees y Tallin prefieren estar preparados desde el primer momento para saber cómo enfrentarse al momento en el que las máquinas comiencen a destinar los recursos del mundo a sus propios fines y necesidades, sin tener en cuenta al ser humano.
Un poco de historia
Las consecuencias de semejante acontecimiento fueron discutidas durante la década de 1960 por I.J. Good, y John von Neumann quien usa el término "singularidad" para describir el progreso tecnológico durante la década de 1950. Sin embargo, no es sino hasta en los 80s que la Singularidad es popularizada por Vernor Vinge.

Si la Singularidad ocurrirá o no, es un hecho muy debatido, pero la aproximación más común entre los futuristas la sitúa dentro de la tercera década del Siglo XXI.

Otros, notablemente Raymond Kurzweil, han propuesto teorías que expanden la Ley de Moore hacia tipos de computación que van más allá de los simples transistores, sugiriendo un patrón exponencial de progreso tecnológico.

Sin embargo Kurzweil supone que el propio patrón de crecimiento cambia y la aceleración se hace mayor hasta el punto de adquirir un patrón de crecimiento hiperbólico. Lo cual es análogo al espacio hiperbólico de los agujeros negros. Según Kurzweil, este patrón culmina en un progreso tecnológico inimaginable en el Siglo XXI, el cual conduce a la Singularidad, un punto en el cual el crecimiento se hace infinito.

El crecimiento hiperbólico es el patrón que algunos indican que sigue el aumento de la información y de hecho ha sido el ritmo en como ha venido creciendo la población mundial por lo menos hasta principios de siglo. Robert Anton Wilson generalizo la ley del crecimiento de la información bajo el nombre del fenómeno del Jesús saltador, que se inspira en la idea de comenzar a contar los años a partir del nacimiento de Jesús, aunque también parece un nombre irónico y humorístico, porque a medida que pasa el tiempo no son pocos los que siguen pensando en el fin del mundo y la inminente llegada de Jesús.

Según Wilson, se inspiró en Alfred Korzybski, el autor de la Semántica General, quien habría observado que la información se duplicaba cada cierto tiempo. Korzybski tomo como base, de todo el conocimiento acumulado y disponible por la humanidad, el año 1 después de cristo, Wilson le llama el primer Jesús. La primera duplicación se habría dado durante el apogeo del renacimiento, con lo que se tendrían entonces 2 Jesús. La segunda en el año 1750, 4 Jesús y las siguientes en los años, 1900, 1950, 1960, 1967 y 1973 (128 Jesús). Para el 2000 se calculaba que la información se duplicaba 2 veces en un año. Sin embargo de acuerdo a otro estudio realizado por la Universidad de Berkeley en el año 2004 por los profesores Peter Lyman y Hal Varian, a instancias de Microsoft Research, Intel, HP y EMC, la información que se genera y se registra en el mundo aumenta a un ritmo de solamente 30% anual desde 1999.

Transhumanismo.
El Transhumanismo propone que la humanidad llegara a un punto en que se modificara a si misma y corregirá aquellas cosas no deseables como enfermedades, debilidad e incluso la mortalidad, y a la vez aumentara aquellas cosas positivas como la memoria, inteligencia, fuerza física, etc. Al final dejaremos de ser humanos para ser posthumanos. Los peligros están en la mente de todos.

La ciencia ficción nos ha mostrado multitud de escenarios de pesadilla, y es bueno que sea así. Ahora sabemos cuales son los peligros y podemos evitar que se hagan realidad, porque este camino ya no acepta dar media vuelta.
Estas cosas contra lo que pueda parecer están a la vuelta de la esquina. No es una cuestión que quede en un futuro lejano y difuso. La secuenciación del genoma humano y toda la investigación genética actual ya están dando los primeros resultados.

Nuevos medicamentos ya se están diseñando para modificar genes determinados como por ejemplo la quimioterapia basada en el perfil genético. Una rápida búsqueda sobre los trabajos actuales de investigación en medicina son sobre genética y los resultados ya los estamos viendo.
Inteligencia Artificial
La mayoría de la literatura existente, así como estudios y cursos, se centran en la Inteligencia Artificial y en sus diferentes aspectos, técnicas, aplicaciones, etc. Es en si una forma especifica de abordar problemas conocidos que son muy difíciles de plantear soluciones algorítmicas y que en cambio parece que las personas o la naturaleza tiene ciertas facilidades o predisposición para solucionar este tipo de problemas. Solo hay que ver como las personas analizamos lo que vemos (Reconocimiento de caras, de formas. Complementación de información incompleta. Reconstrucción en 3D, etc), y los avances en visión por ordenador, que son muy importantes, pero aun muy lejos de alcanzar el nivel del ojo humano.

Técnicas como el aprendizaje automático, análisis simbólico, búsqueda heurística, planificación, sistemas expertos, redes neuronales, algoritmos evolutivos, lenguaje natural, etc, han sido aplicadas a multitud de problemas de forma específica y con excelentes resultados. De hecho es sorprendente la cantidad de estos sistemas que funcionan en nuestros ordenadores sin que seamos conscientes.
AGI
Entonces, ¿Que aportan de nuevo los sistemas AGI? Pues básicamente los objetivos que se persiguen y la forma de abordarlos. El objetivo, tal como dice su propio nombre es conseguir un sistema inteligente "general". Es decir, no un experto en solucionar un tipo concreto de problemas. Vendría a ser como una persona que puede solucionar cualquier tipo de problema, siempre que sea solucionable por una persona y tenga la preparación adecuada. Normalmente se considera que un sistema general deberá incorporar un sistema de autoconsciencia (o autoobservación). Los métodos de conseguirlo es básicamente utilizando todo el conjunto de técnicas ya conocidas de la Inteligencia Artificial (computación), añadiendo una teoría de la mente (como la psicología cognitiva, neuropsicología, pero también neurolingüística, etc).

La rebelión de las máquinas puede ser real
Durante el nuevo año en curso los científicos británicos nos comunicarán la fecha exacta de la rebelión de las máquinas. Para ello Gran Bretaña creará el Centro de Estudios de los Riesgos Existenciales (CSER), en el cual, los especialistas van a investigar la posibilidad de la creación de la inteligencia artificial autosuficiente y sus vías de desarrollo: la biotecnología y el calentamiento global. Los expertos de La Voz de Rusia nos ofrecen su pronóstico. Tan solo en medio siglo el mundo podría cambiar hasta tornarse irreconocible: las máquinas podrán aprender sin la ayuda de los humanos.
Los filósofos británicos, los astrofísicos, los programadores (incluyendo al fundador de Skype, Jan Tallinn) intentan calcular seriamente la probabilidad de un desarrollo de nuestra civilización que nos lleve hacia un callejón sin salida cuando la gente se convierta en esclavos de las máquinas pensantes. Es posible tal variante del desarrollo de los hechos.

Los militares utilizan hace tiempo tecnologías cercanas a la inteligencia artificial, por ejemplo, los drones (aparatos voladores autónomos no pilotados), sistemas de auto-conducción. Dentro de algunas décadas las máquinas aprenderán, incluso, a pensar con autonomía, nos comenta con toda convicción el experto militar y jefe de redacción de la revista Defensa Nacional, Igor Korotchenko:
— La inteligencia artificial en los sistemas de combate se está perfeccionando. Las funciones humanas pasarán directamente al núcleo inteligente de las unidades de choque. Por ello es totalmente posible la aparición de sistemas de armamento completamente basados en la inteligencia artificial en los próximos cincuenta o sesenta años. El caso es que si las decisiones finales deberán ser adoptadas por las máquinas, entonces tendrán que estar programadas en base a algoritmos impredecibles. Por ello es imprescindible definir con exactitud cuales funciones se delegarán al intelecto artificial y cuales, a los oficiales y generales.
Por su parte, el director del Centro de Desarrollos Educacionales de Skólkovo, Denis Konanchuk, señala que la elaboración de la inteligencia artificial no es solamente objeto de interés militar, sino también de programadores civiles y de científicos. Todas las más grandes compañías informáticas del mundo intentan enseñar a sus sistemas de búsqueda y a sus traductores on-line a “pensar” como los humanos. Esto será una revolución cognitiva, considera el experto:
— Existen tales escenarios y antecedentes. En particular, los sistemas de traducción de palabras. En la actualidad estas máquinas no traducen el significado de las frases, sino el sentido de las palabras. Las grandes corporaciones desarrollan el trabajo de los sistemas de traducción para que en un principio definan el sentido de la frase y, después, la traduzcan. Esto es un antecedente de la aparición de la inteligecia artificial. La fecha en que tal evolución pudiese acontecer oscila entre los años 2020 y 2030.

Ambos expertos de La Voz de Rusia confían en que la evolución de la inteligencia artificial se desarrollará pacíficamente. Pero no se excluye que, en algún momento, las máquinas inteligentes controladas por los humanos, se rebelen, y los argumentos de películas como “Terminator” y “Yo, el robot” se conviertan en realidad.
Toda la vida en un chip
El científico Ken Haywoth, de la universidad de Harvard, lleva muchos años trajando en la posibilidad de realizar un experimento consistente en el "download" de todas las conexiones de un cerebro humano - lo cual para el implica volcar la personalidad entera- a una máquina.

Hace un par de años se estrenó una película que, según parece, tuvo sólo un discreto paso por la cartelera. Se trata de “The Final Cut” (que se tradujo en diversos sitios con nombres tan variopintos como “La Memoria de los Muertos”, “Más Allá de la Muerte”, …), dirigida por Omar Naim, y protagonizada entre otros por Robin Williams. La película partía de una premisa muy interesante: en un futuro cercano, los que tienen cierto nivel adquisitivo pueden permitirse un implante Zoe, esto es, una especie de biochip colocado en el cerebro que permite grabar todo lo que el sujeto ve u oye, durante toda su vida. Cuando una persona con uno de estos implantes muere, hay profesionales que se encargan de realizar un panegírico sobre el finado, usando el metraje grabado en el implante. La idea es como digo interesante, aunque la película resultaba un tanto fallida al intentar explorar las implicaciones de este tipo de implantes.
Pues bien, a través de Novedades Científicas, Tendencias21 y The Telegraph, nos llega la noticia de una predicción: según Nigel Shadbolt, catedrático de inteligencia artificial en la Universidad de Southampton, para dentro de unos 20 años será posible grabar toda la vida de una persona en vídeo de alta resolución; para ello, el Prof. Shadbolt estima que serán necesarios entre 5 y 6 petabytes (1 PB = 1015 bytes). A primera vista, no parece una predicción descabellada a 20 años vista (esta fecha suele ser por cierto una de las estimaciones para el advenimiento de la singularidad tecnológica). Para entonces, habrá que haber resuelto, eso sí, diversos problemas tales como la miniaturización de varios PB de memoria, la lectura de información (desde los nervios ópticos y auditivos, o directamente de la corteza cerebral), el suministro y la disipación energética en un medio biológico sensible, etc. En un plazo como el señalado, no parece tarea imposible, pero en cualquier caso, puede plantearse una cuestión más de fondo: ¿por qué o para qué querríamos hacer esto?
En primera instancia, si el acceso a la información es post mortem, la razón básica por la que se podría querer un implante de este tipo no diferiría mucho de la planteada en la película: que los allegados tengan acceso a las vivencias de la persona desaparecida. Por supuesto, podría pensarse en su utilidad forense (además de la información audiovisual, se podría almacenar todo tipo de datos sobre temperatura, presión sanguínea, pulso, … una auténtica caja negra), o incluso en la construcción de museos históricos en los que se pueda rememorar de manera casi perfecta la vida de personajes famosos.
La utilidad sería mucho mayor si el acceso a la información pudiese hacerse durante la vida del sujeto (imaginemos que la gente dispusiera de un puerto USB 5.0 en la nuca). Por un lado estarían las aplicaciones médicas: estaría disponible un histórico de todos los datos vitales del individuo, y se podrían hacer diagnósticos mucho más rápidos y fundamentados. Por otro lado, estarían las aplicaciones -quizás más interesantes- de esa información en la vida diaria. Suponiendo que el implante sea seguro a intrusiones (quizás sea mucho suponer, pero bueno), el registro sensorial sería definitivo en todo tipo de conflictos legales. Esta idea ya ha sido explorada en algunas obras de ciencia-ficción. Por ejemplo, en “The Engines of Dawn“, hay una raza alienígena -los Enamorati- dividida en castas, una de las cuales tiene la memoria especialmente desarrollada, lo que les permite jugar el papel de testigos definitivos en cualquier asunto delicado.

También están las aplicaciones más personales, como rememorar con toda precisión aquella lección de álgebra homológica en mitad del examen correspondiente, o aquel partido de fútbol que tanto nos impactó (también se me ocurren otras cosas que se quisieran revivir, tal como se muestran por ejemplo en películas como “Brainstorm” o “Días Extraños“). Si el intercambio de grabaciones sensoriales es factible, las posibilidades se multiplican, y a partir de ahí, cualquier predicción sobre el rumbo que podría tomar la sociedad es casi imposible de realizar. Quizás lo más parecido que se puede imaginar es lo que se refleja en “Luz de otros días” de Arthur C. Clarck y Stephen Baxter, no tanto por la tecnología (que no tiene directamente que ver con esto), sino por algunas de sus implicaciones. Quién sabe lo que nos espera.
¿Superará pronto Google el test de Turing?
El test de Turing es uno de los más clásicos intentos de caracterizar la inteligencia humana, y determinar si un sistema artificial puede considerarse “inteligente”. Básicamente, el test consiste en disponer a dos personas (un juez, y un sujeto de control) y a la máquina escrutada en tres habitaciones separadas. La persona que actúa como juez puede comunicarse a través de algún sistema textual (un teletipo en la versión primigénea del test, o un sistema de mensajería instantánea en la actualidad) con cualquiera de las dos habitaciones, aunque no sabe cuál de las dos contiene a la máquina o al sujeto de control. Si después de conversar durante un tiempo razonable con ambas habitaciones sigue siendo incapaz de determinar dónde está la máquina (puede pensarse incluso en una versión del test en la que el juez no sabe si realmente hay una máquina y una persona, o dos personas), diríamos que ésta ha pasado el test de Turing.
Aunque el test de Turing es cuestionable en muchos aspectos (puede consultarse la bibliografía compilada por Ayse Pinar Saygin, o ir directamente a obras como “La Nueva Mente del Emperador” de Roger Penrose), podríamos al menos conceder que fija un listón mínimo que ha de ser superado antes de que otorguemos a una máquina la categoría de “inteligente” en el sentido humano (nuevamente, esto puede ser discutible, pero admitámoslo así). De hecho, se trata de algo bastante complejo, ya que conlleva procesamiento de lenguaje natural, y cierta capacidad de razonamiento abstracto.

En la actualidad, es posible definir programas que mediante circunloquios, frases generales, etc. lleguen a aburrir a un posible interlocutor, pero eso quedaría fácilmente al descubierto en un test de Turing (o al menos levantaría las sospechas del juez), cuando se viera que uno de los interlocutores (el humano) da respuestas precisas, mientras que el otro responde de manera vaga. Se persigue pues algo más que la mera conversación: compresión, e intercambio de información. Esto es un obejtivo clarmente ambicioso que no está claro cuándo se podrá conseguir. Mitchell Kapor y Ray Kurzweil han apostado 10,000$ cada uno sobre si en 2029 habrá algún sistema que pase el test de Turing (Kapor dice que no, y Kurzweil dice que sí).
Pues bien, podría ser que Kurzweil tuviera posibilidades de ganar la apuesta y -más aún- que el primer sistema en superar el test de Turing no sea una IA fruto de sesudos proyectos de quinta generación, sino una herramienta que todos usamos a diario: los buscadores de Internet. Según datos de la Acceleration Studies Foundation presentados en el reciente Standford Singularity Summit, la longitud media de las consultas que devuelven resultados precisos era de1.3 en 1998 (Altavista), de 1.8 en 2000 (Google en lo sucesivo), 2.6 en la actualidad, y se prevee de 5.2 y 10.4 en 2012 y 2019 respectivamente.

Éste es el típico patrón de crecimiento exponencial que se da en la bien conocida Ley de Moore, y en tantos otros fenómenos relacionados con el desarrollo científico y tecnológico. Lo interesante es que una pregunta normal formulada entre seres humanos tiene una longitud media de unas 10-12 palabras (esto puede variar de un lenguaje a otro, pero no es demasiado importante). Ello quiere decir que se podrán plantear preguntas muy concretas a Google (o a su sucesor en los años venideros) y obtener respuestas precisas. Por ejemplo: “¿cómo están mejor los spaghetti carbonara, con nata o sin nata?” y rápidamente nos diría que… (habrá que esperar unos años para saberlo).



Puedes encontrar más entradas en www.gitsinformatica.com


Gits mira por tus derechos. Gits es Pro-Vida.
Recomendamos la visualización de este documental:http://www.youtube.com/watch?v=SWRHxh6XepM .

No hay comentarios:

Publicar un comentario

Rogamos sea moderado y constructivo en beneficio de toda la comunidad de Internautas. Considere la posibilidad de ayudarnos con una pequeña aportación dineraria a nuestra cuenta PayPal en nuestra web principal www.gitsinformatica.com Gracias por su colaboración. Que pase un buen día.