Ciberseguridad, Privacidad del Internauta y Delitos Informáticos

Puedes encontrarnos aquí

Puedes encontrarnos aquí
Ciberseguridad, Privacidad del Internauta y Delitos Informáticos

Buscar este blog

domingo, 17 de febrero de 2013

Inteligencia Artificial: el factor humano



Alan Turing
Contenidos
  • Inteligencia Artificial, Biónica, Cibernética y Robótica
  • Qué es la Inteligencia Artificial (IA)
  • Software Inteligente
  • Biochips
  • ¿Puede pensar una máquina?
  • ¿Se puede producir artificialmente la inteligencia humana?
  • El lenguaje natural y otros Ambitos de la I.A.
  • Elementos de la I.A.
  • Estrategias de comportamiento inteligente.
  • Consideraciones sobre IA
  • Prueba de TURING
  • Tres leyes de la robótica
  • Computación cognitiva
  • Breve historia de la IA: El sueño de Turing
  • Áreas de la IA
  • Sistemas expertos
  • Redes neuronales
  • Perspectivas futuras
  • Noticias llamativas
  • Conclusiones
  • ¿Avance tecnológico o amenaza social?
  • ¿Pueden los computadores aprender a resolver problemas a partir de ejemplos?
Relacionados:CiberneticaRobóticaBionicaColapso TecnológicoInteligencia Artificial, BiometríaGrafenoNanotecnologíaTendencias Tecnológicas de futuroBreve Glosario Nanotecnológico


Inteligencia Artificial, Biónica, Cibernética y Robótica

La imaginación de Warren McCulloch y sus conocimientos de fisiología, medicina y psiquiatría se fundieron con la cultura lógico-matemática de Walter Pitts. Juntos desarrollaron la primera explicación lógico-matemática del cerebro de la historia, un modelo neuronal formal para explicar su funcionamiento que recogieron en 'Un cálculo lógico de las ideas inmanentes en la actividad nerviosa'. Este artículo, publicado en 1943, está considerado uno de los estudios fundadores de la inteligencia artificial, aunque este concepto no se desarrollaría hasta años después.

Desde el Oráculo de Delfos, e incluso desde mucho antes, predecir ha sido siempre un trabajo en extremo difícil y por ello la historia de los vaticinios está tachonada de fracasos (e incluso de profetas ajusticiados); fracasos también, cómo no, en el mundo de las TIC. Uno de esos vaticinios era que en el año 2000 habría ordenadores que no se distinguirían de las personas, al menos en un campo tan significativo como en la respuesta dada a preguntas hechas por humanos.

Ese vaticinio lo hizo Alan Turing, una de las mentes más brillantes y creativas del siglo XX, en su artículo Computing Machinery and Intelligence, publicado en 1950, que empezaba con una frase que se hizo pronto famosa («Propongo considerar la siguiente cuestión:¿pueden pensar las máquinas?») y que levantó gran controversia (disponible en inglés).
Pues bien, estamos en el año 2013 y, aunque esas máquinas, y robots androides, con inteligencia semejante a la humana todavía no existen 100% ni se sabe cuando podrán existir (películas como Blade Runner, de Ridley Scott, o Artificial Intelligence, de Steven Spielberg, las sitúan en las primeras décadas del presente siglo), las ideas de Turing han dado lugar a un campo específico de la Informática o Ciencia de la Computación: la llamada Inteligencia Artificial o IA.

Antes de profundizar en este apasionante campo, es preciso definir ciertos términos íntimamente relacionados, a saber:

La biónica es la ciencia que estudia los principios de la organización de los seres vivos para su aplicación a las necesidades técnicas. De esta se deriva la construcción de modelos de materia viva, particularmente de las moléculas proteicas y de los ácidos nucleicos.

Etimológicamente la palabra viene del griego "Bio"; que es vida y "nica" "Técnica" o "Electrónica". Es una rama de la cibernética que estudia la biología con el fin de obtener conocimientos útiles para idear proyectos y realizar aparatos y sistemas electrónicos.

Asimismo, existe la Ingeniería Biónica la cual es difícil definir, ya que abarca a varias disciplinas con el objetivo de concatenar (hacer trabajar juntos) sistemas biológicos por ejemplo para crear prótesis activadas por los nervios, o robots controlados por alguna señal biológica, o también crear modelos artificiales de cosas que solo existen en la naturaleza, por ejemplo la Visión artificial y la Inteligencia artificial también llamada Cibernética.
Inteligencia artificial. Ciberseguridad GITS InformáticaLa Cibernética es la ciencia que se ocupa de los sistemas de control y de comunicación en las personas y en las máquinas, estudiando y aprovechando todos sus aspectos y mecanismos comunes. El nacimiento de la cibernética se estableció en el año 1942. (Inteligencia Artificial y Cibernética: Norbert Wiener, precursor de la cibernética)

La unión de diferentes ciencias como la mecanica, eletronica, medicina, fisica, quimica y computación, han dado el surgimiento de una nueva doctrina llamada Biónica, la cual busca imitar y curar enfermedades y deficiencias físicas.

A todo esto se une la robótica, la cual se encarga de crear mecanismos de control los cuales funcionen en forma automatica. Este término procede de la palabra robot.

La robótica es, por lo tanto, la ciencia o rama de la ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots.

Etimológicamente la palabra robot proviene del idioma checo de la palabra robota que significa esclavitud / servidumbre aunque más asociada al trabajo, habiéndose acuñado en una obra escrita en 1921 por Karel Capeck titulada "Rossum´s Universal Robots".
Según el diccionario Webster robot es un dispositivo automático que efectúa funciones ordinariamente asociadas a los seres humano, concepto completado con la idea de robot manipulador reprogramable multifuncional diseñado para mover materiales, piezas o dispositivos especializados, a través de movimientos programados variables para la realización de una diversidad de tareas.
Inteligencia Artificial:
Inteligencia: Facultad de Entender ó Conocer

Esta breve manera de definir la inteligencia pudiera parecer demasiado simplista y carente de la profundidad que algo tan complejo y abstracto debiera de tener, sin embargo, al inicio es necesario presentar lo complejo de la manera más sencilla, para así contar con una base pequeña pero sólida en la cual fundamentar el desarrollo del estudio que nos llevará primero a darnos cuenta de que lo definido, en realidad envuelve más de lo inicialmente señalado y posteriormente a comprender totalmente su significado más amplio.
Todo esto ha conducido al surgimiento de los Cyborg, organismos Bio-mecanicos nacido de la unión de la cibernética con la fisiología que buscan imitar la naturaleza humana. Su constitución contendrá glándulas electrónicas y químicas, estimulados bioelectricos, el todo incluido en un organismo cibernetizado. Han pasado varios años desde que ingenieros, iniciaron la carrera hacia la automatización, hasta hoy todos esos avances han producido grandes resultados y avances.

Reflexión
Si pudiese usted mejorar, implantarse un chip en el cerebro que amplíe su sistema nervioso a través de internet, ‘actualizarse’ y convertirse parcialmente en máquina, ¿lo haría? Lo que plantea Kevin Warwick, profesor de Cibernética en la Universidad de Reading, puede parecer ciencia-ficción pero no lo es: él mismo tiene varios chips implantados, lo que le convierte en un cyborg: mitad hombre, mitad máquina.

Warwick explica los diversos pasos que se han dado para cultivar neuronas en un laboratorio que, después, pueden utilizarse para controlar robots, y cómo, además, los chips implantados en el cerebro pueden mover músculos de nuestro cuerpo a voluntad. No falta mucho para que también tengamos robots con cerebros creados con neuronas humanas que tengan el mismo tipo de habilidades que los cerebros humanos. ¿Deberían, entonces, tener nuestros mismos derechos?

Inteligencia artificial. Ciberseguridad GITS Informática

Qué es la Inteligencia Artificial (IA)
Existen varias definiciones:
Marvin Minsky. Inteligencia artificial. Ciberseguridad GITS Informática“Es la ciencia de hacer máquinas que hacen cosas que realizadas por el hombre requieren el uso de inteligencia”. Marvin Minsky

En ciencias de la computación se denomina IA a las inteligencias no naturales en agentes racionales no vivos. John McCarthy, acuñó el término en 1956, la definió: Es la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes.

En otra acepción podríamos definirla como el estudio de las computaciones que permiten percibir, razonar y actuar. Es una de las áreas de las ciencias computacionales encargadas de la creación de hardware y software que tenga comportamientos inteligentes.

La IA es considerada una rama de la computación y relaciona un fenómeno natural con una analogía artificial a través de programas de computador. La IA puede ser tomada como ciencia si se enfoca hacia la elaboración de programas basados en comparaciones con la eficiencia del hombre, contribuyendo a un mayor entendimiento del conocimiento humano.

Si por otro lado es tomada como ingeniería, basada en una relación deseable de entrada-salida para sintetizar un programa de computador. El resultado es un programa de alta eficiencia que funciona como una poderosa herramienta para quien la utiliza.


Software Inteligente

El matemático y científico de la U de Pennsylvania Doug Lenat ha ingresado más de 100 millones de conocimientos generales y razonamientos en el software «base de conocimientos» llamado Cyc. Su meta: equipar un computador con todo el conocimiento general y el sentido común de un adulto. Asegura que en 2 años Cyc entenderá el inglés lo suficiente como para continuar su educación leyendo libros, diarios y revistas.

Cyc servirá de plataforma para otros programas, que podrán utilizar sus conocimientos generales y su sentido común. «Hacia 1999 a nadie se le ocurrirá comprar un computador sin Cyc, tal como nadie compra hoy uno que no tenga procesador de textos», afirma Lenat.

Relacionadas:
Advierten sobre la importancia de la inteligencia artificial y piden legislarla.
¿Está acabando Google con nuestra memoria? A medida que surjan herramientas de búsqueda cada vez más alucinantes y poderosas esa inquietud no va a hacer más que aumentar. Un nuevo ensayo aborda la cuestión.
IBM crea lenguaje de programación que imita al cerebro humano.


BiochipsInteligencia artificial. Ciberseguridad GITS Informática
En la oficina del científico Masuo Aizawa, del Intituto de Tecnología de Tokio, nada llama demasiado la atención, excepto una placa de vidrio que flota en un recipiente lleno de un líquido transparente. Se trata de un chip que parece salpicado con barro.

Pero las apariencias engañan. Los grumos alargados del chip de Aizawa no son manchas, sino ¡células neurales vivas!, criadas en el precursor de un circuito electrónico-biológico: el primer paso hacia la construcción neurona por neurona, de un cerebro semiartificial.

Cree que puede ser más fácil utilizar células vivas para construir máquinas inteligentes que imitar las funciones de éstas con tecnología de semiconductores, como se ha hecho tradicionalmente.

En el futuro, se podría utilizar el chip neuronal de Aizawa como interfaz entre la prótesis y el sistema nervioso de pacientes que hubieran perdido una extremidad.

Si continúa el uso de células vivas en sistemas eléctricos, en los próximos años casi con toda seguridad ocurrirá el advenimiento de dispositivos computacionales que, aunque rudimentarios, serán completamente bioquímicos.



GRANJA DE EVOLUCION

La evolución en la naturaleza fue la clave para mejorar los organismos y desarrollar la inteligencia. Michael Dyer, investigador de IA de la U de California, apostó a las características evolutivas de las redes neurales (redes de neuronas artificiales que imitan el funcionamiento del cerebro) y diseñó Bio-Land.

Es una granja virtual donde vive una población de criaturas basadas en redes neuronales. Los biots pueden usar sus sentidos de la vista, el oído e incluso el olfato y tacto para encontrar comida y localizar parejas. Los biots cazan en manadas, traen comida a su prole y se apiñan buscando calor.

Lo que su creador quiere que hagan es hablar entre ellos; tiene la esperanza de que desarrollen evolutivamente un lenguaje primitivo.
A partir de ese lenguaje, con el tiempo podrían surgir niveles más altos de pensamiento.

QUEDA MUCHO TODAVIA

La IA tradicional estaba estancada con máquinas que no podían realizar tareas que un niño hace con facilidad, como no tropezar con los muebles y distinguir entre una mesa y una taza de café. Pero la IA basada en la naturaleza trajo aires renovadores y quizás dentro de 1 o 2 décadas construya una inteligencia semiartificial.

La cosa no es fácil. Se ha calculado que un PC tiene más o menos la potencia de cálculo de un caracol, en tanto que un Cray 2 -uno de los más rápidos súpercomputadores existentes- apenas iguala al poder cerebral de un ratón.

Si fuera posible hacer una máquina de capacidad equivalente a la del cerebro humano, requeriría 100 megawatts, energía suficiente para iluminar Santiago.
Los científicos trabajan hace más de 40 años para lograr que las máquinas piensen de un modo útil e interesante.

Aunque se están dando pasos importantes, encontrar la clave para construir la inteligencia es por el momento mérito exclusivo de Dios.


¿PUEDE PENSAR UNA MAQUINA?

Esta pregunta tan simple plantea unos problemas tan grandes que, posiblemente, nunca se llegue a un acuerdo completo entre las distintas respuestas que se proponen.

Bajo la pregunta de si las máquinas piensan o pueden pensar se cobija una dilatada historia de discusiones que no ha llegado a su fin y que, muy probablemente, perderá interés antes de llegar a una respuesta satisfactoria. Los más brillantes científicos han intervenido en la polémica para intentar sentenciar la cuestión. Turing, Von Neumann o Lucas son algunos de estos nombres famosos.

Tiempo atrás, considerar que las máquinas pudieran tener inteligencia parecía un absurdo, una estupidez infantil. Posteriormente, a medida que los progresos de la investigación cambiaban el panorama tecnológico, también cambió la atitud y se atribuyó un valor especifico al problema teórico. Con ello se descubrió que la hipótesis de una inteligencia mecánica, artificial o simulada, abría nuevos interrogantes. El más serio de estos interrogantes se refería a la verdadera realidad de la inteligencia humana.

¿Qué rasgos fundamentales distinguen a los seres inteligentes y cómo operan biológicamente los procesos cognitivos? Esta nueva pregunta ha conducido a investigar una inadvertida laguna del saber humano. Con ello se ha visto que el ser humano, hasta el momento, se ha ocupado más de los resultados de su inteligencia que de los sutiles procesos y relaciones que la hacen posible.

Estas relaciones y procesos atañen a la biología y a la lógica, lo que, en términos computacionales, puede traducirse como los ámbitos del hardware y el software.

(Ver más: La prueba de Turing)


¿SE PUEDE PRODUCIR ARTIFICIALMENTE LA INTELIGENCIA HUMANA?

Del ser humano se afirma su inteligencia porque posee intuición, inspiración, capacidad de organizar cadenas lógicas de pensamiento, sentimientos y expresión lingúistica, entre otras cosas. El lenguaje es una manifestación externa de las otras capacidades o rasgos del conocimiento. No obstante, la definición resulta imprecisa y abstracta.
El lenguaje natural y otros Ambitos de la I.A.
Inteligencia artificial. Ciberseguridad GITS InformáticaUn gran objetivo, no carente de una abrumadora complejidad, se cifra en el tratamiento del lenguaje natural. Este objetivo consiste en que las máquinas computacionales (y sus aplicaciones en robótica) puedan comunicarse con las personas sin ninguna dificultad de comprensión, ya sea oralmente o por escrito.

Aquí encontramos la realización de un sueño largamente alimentado: hablar con las máquinas y que éstas entiendan nuestra lengua y, también, que se hagan éntender en nuestra lengua.

La síntesis del lenguaje y el reconocimiento de voz forman dos aspectos del mismo propósito. Los logros que se han conseguido resultan a todas luces parciales e insuficientes, pero alentadores.

Ciertas máquinas pueden interpretar las grafícas de textos escritos y reproducirlos oralmente: leen los textos en voz alta.

Uno de los avances de este tipo (que sin duda representará una evolución notable en poco tiempo) es el programa FRUMP, elaborado en la universidad de Yale. FRUMP es capaz de leer historias cortas y resumirlas escuetamente con una gramática correcta y una expresión convincente.

Para lograr que las computadoras comprendan la lengua en la que la persona se expresa, es preciso pasar por una dilatada cadena de investigaciones en el campo de la acústica y ondas de lenguaje, análisis fonético y articulación, reglas de formación de frases o análisis sintáctico, el dominio semántico o de los conceptos y, finalmente, el análisis global de los actos de comunicación o pragmática.

El tratamiento del lenguaje natural tendrá una repercusión difícilmente imaginable. Su aplicación se extenderá al hasta ahora cegado camino de la traducción automática del lenguaje. Los textos o expresiones de una lengua se vertirán de manera automática e inmediata a otra lengua o idioma. Se prevé alcanzar mecánicamente un 90 por cientode precisión, y el resto del material de traducción será tratado por personal especializado.

Junto al lenguaje, aparece otro objetivo capital, consistente en el tratamiento de gráficos y la visión artificial. De este planteamiento se desgranan aspectos como los de la percepción electrónica, selección y almacenamiento de imágenes, reconocimiento visual de formas y objetos, producción de imágenes y diseño industrial (CADICAM), etcétera.

En último lugar, simplemente por el hecho de permitir la reunión de progresos de los otros objetivos, se encuentra la robótica.


Elementos de la I.A.

En verdad, la inteligencia artificial consiste en la asimilación de los procesos inductivos y deductivos del cerebro humano. Este intento de imitación se enfrenta a duras restricciones del hardware. Una computadora no es un cerebro; su complejidad electrónica se encuentra a una distancia abismal de la superior complejidad neurológica de aquél.

La inteligencia artificial acepta el reto de la imitación de los procesos del cerebro aplicando mucho ingenio para aprovechar los medios de que se dispone y que se elaboran.

Sea cual sea la aplicación de que se trate, la I.A. se sustenta sobre los dos elementos siguientes:
Estrategias de comportamiento inteligente.
Saber o saberes.
Como se podrá apreciar, estos elementos forman una construcción coherente, son forma y contenido, o estructura y materia.

El primer elemento es el de las estrategias de comportamiento inteligente; se conjuga en la disposición de reglas para formular buenas inferencias o conjeturas y, también, en su uso para la búsqueda de una solución a la cuestión o tarea planteada. De esta forma, las estrategias son la parte estructural o formal.

Por oposición, el segundo elemento significa lo material o el contenido, y, por tanto, varía en cada caso de un modo más profundo; se trata del saber. En realidad, no se puede pretender reunir el saber, sino los saberes. Por ejemplo, cada sistema experto posee en memoria todos los conocimientos distintivos que tendría un especialista en la materia, sea un médico, un abogado o un químico. El saber que se recoge tiene un carácter especializado y alcanza un volumen conceptual considerable.

La estructura que presenta un sistema de información inteligente consta de tres niveles perféctamente integrados en una superarquitectura microelectrónica. Son tres niveles que cubren desde la relación exterior hasta la profunda organización interior. Éstos son:
- Nivel externo. Sirve para relacionar a la máquina con el medio y el ser humano. Este nivel está integrado por el tratamiento del lenguaje natural y el tratamiento de fas imágenes. Con estos instrumentos la máquina percibe inteligentemente las señales que se le envían sin codificación especial, y adquiere un conocimiento.

- Nivel medio. En él se halla el sistema de resolución de problemas. La instrumentalización de esa capacidad se realiza mediante los sistemas expertos, que se configuran merced a unas estrategias de operación y una base de conocimientos orgánicamente ralacionados.

- Nivel profundo. Este último nivel corre paralelo a las funciones más profundas del cerebro. En él se sitúa, como proyecto, la capacidad de «aprender» automáticamente de la máquina. Tal proceso se concibe como la interpretación de diversas experiencias y su organización adecuada para ser utilizada en su caso. Finalmente, el nivel profundo está constituido por la base de conocimientos generales y la flexibilidad para ampliarse por si misma.

Con el progreso de la tecnología para unir nervios humanos a los circuitos eletronicos y de producir elementos bio-mecánicos, con componentes electronicos y los avances en el área de la Inteligencia Artificial, no pasara mucho tiempo antes que el hombre pase del umbral de crear un Organismo Bio-Electro-Mecánico, con capacidades de razonamiento y resolución de problemas.
Consideraciones sobre IAInteligencia artificial. Ciberseguridad GITS Informática

El concepto de inteligencia tiene múltiples facetas e interpretaciones. Si alguien calculase mentalmente la raíz trece de un número de cien cifras en menos de un segundo cualquiera de nosotros quedaría fascinado ante tal proeza, y por eso diríamos que un tal hombre es muy inteligente para el cálculo matemático.

Dicho hombre existe, es colombiano y se llama Jaime García Serrano. En otra esfera de acción, Ronaldinho guía el balón y lo dirige con sus pies de forma magistral allá donde pone el ojo. Decimos también que es un hombre muy inteligente para jugar al fútbol. También en su día Onassis fue considerado un exitoso e inteligente hombre de negocios.

Podríamos así ir analizando las diferentes facetas del quehacer humano y encontraríamos un tipo de inteligencia para cada una de esas facetas.
La inteligencia se desvela finalmente como una capacidad especial, y superior a la media de un determinado grupo humano, para realizar determinadas actividades y en diversos ámbitos.
- Académicos: estaría relacionada con una sobrecapacidad mental para almacenar y procesar información.
- Deportivos: estaría relacionada con una capacidad extraordinaria para coordinar movimientos y/o ejecutar determinadas acciones físicas.
- Financiero: estaríamos hablando de un olfato fuera de lo común para crear y poner en marcha negocios que reporten sustanciosas ganancias económicas.
De cualquiera de las maneras, siempre se trataría de una propiedad cerebral, o si se quiere, de ‘circuitos neuronales', fuera de lo común. Así, el reconocimiento de la inteligencia siempre se ha manifestado sigilosamente entre los compañeros del ‘afortunado' con aquella frase que dice: Este chaval tiene coco.

Pero atención, no nos llevemos a engaño, el hardware sin software, es decir, sin trabajo, de poco sirve. Como el propio Jaime García reconoce: Lo mío no es magia ni genes, sino trabajo, técnica y método, o tal como el mismo Picasso afirmó en su día: 95% de trabajo y 5% de inspiración, o lo que es evidente, Ronaldinho sin cinco horas de entrenamiento diarias no sería el singular jugador de fútbol que actualmente, año 2005, conocemos.
Fijémonos también que el factor tiempo es una variable importante en la consideración de inteligencia. Nadie consideraría un signo de inteligencia la capacidad de multiplicar dos números de veinte cifras en una semana, pero sí lo es el hacerlo en cinco segundos, aunque claramente la acción ejecutada es la misma.

Evidentemente, muchas de las cabezas pensantes que han pasado a la historia hicieron algo relevante durante ciertos periodos de sus vidas. Tenemos, por ejemplo, el caso de Einstein, que en 1905, su Annus Mirabilis, publicó cinco trabajos de alta relevancia para la Física. Así, está histórica y estadísticamente probado, que las grandes aportaciones científicas se hicieron y se hacen entre los 25 y los 35 años de las correspondientes eminencias.

Observemos en este punto que, aunque la universidad española está plagada de grandes profesores, lo que sin duda supondría una gran concentración de inteligencia, si hacemos eco de lo que nos dice la historia académica de nuestro país, y si extendemos el ámbito espacial más allá del localismo que los envuelve, la mayor parte de ellos se jubilaron sin haber hecho ningún aporte que resaltar en la correspondiente rama de su especialidad.

Así pues, es un puro ejercicio de rango espacial el considerar o no ciertos casos como muestrario de inteligencia. Queda claro entonces con este ejemplo que la inteligencia tiene un componente que ciertamente expresa la capacidad de emulación o repetición, pero, desde luego, no acaba por definirla completamente.

Y es este último punto sugerido donde la Inteligencia Artificial encuentra las mayores pegas para implementar inteligencia. El tema de la creatividad. Hasta ahora se han desentrañado algoritmos que emulan esa capacidad neuronal especial, o se pueden diseñar arquitecturas que la recreen.

En último término siempre se podría implementar un algoritmo de tipo fuerza-bruta que sondease todas las soluciones posibles a un problema dado. Si, por otro lado, vamos aumentando la velocidad de cálculo y procesamiento de las máquinas, es decir, se disminuye el tiempo de ejecución de la acción en concreto, ya estaríamos en posición de poder decir que hemos resuelto el problema de la inteligencia, y que somos capaces de ‘producirla' artificialmente.

Pero, a día de hoy, no hemos logrado desvelar los procesos neuronales por los que los hombres inteligentes hacen gala de esa propiedad tan codiciada y envidiada que se llama Inteligencia (natural): esa capacidad que poseen ciertos hombres de poder encontrar una solución a un problema sin resolver o una solución nueva a un problema ya resuelto, sin más herramienta que el uso de una heurística o experiencia propia, la cual fue adquirida a través del estudio o experimentación sobre un número finito de problemas más o menos similares.

Y es esa dosis de mayor o menor creatividad la que caracteriza y diferencia, ahora mismo, lo que se considera inteligencia humana de lo que se considera inteligencia implementada en una máquina.


Prueba o Test de Turing
(Ver más sobre Alan Turing)

Es el denominado experimento para demostrar si un computador piensa o no.
Fue expuesto en 1950 en un artículo (Computing machinery and intelligence) para la revista Mind, y sigue siendo uno de los mejores métodos para los defensores de la Inteligencia Artificial.

Se fundamenta en la hipótesis positivista de que, si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente.

La prueba consiste en un desafío. Se supone un juez situado en una habitación, y una máquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el juez les hiciera.

Inteligencia Artificial. Ciberseguridad GITS Informática.La tesis de Turing es que si ambos jugadores eran suficientemente hábiles, el juez no podría distinguir quién era el ser humano y quién la máquina. Todavía ninguna máquina puede pasar este examen en una experiencia con método científico.

A través de la IA se han desarrollado los sistemas expertos que pueden imitar la capacidad mental del hombre y relacionan reglas de sintaxis del lenguaje hablado y escrito sobre la base de la experiencia, para luego hacer juicios acerca de un problema, cuya solución se logra con mejores juicios y más rápidamente que el ser humano.

Basándose en esta prueba, todos los años se celebra el Premio Loebner (EE.UU.) en busca de encontrar una Inteligencia Artificial (máquina) que supere el Test de Turing.

El concurso consiste en que un juez humano se enfrente a dos pantallas de ordenador, una de ellas que se encuentra bajo el control de un ordenador y la otra bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe respuestas.

En base a las respuestas, el juez debe decidir qué pantalla es la controlada por el ser humano y cuál es la controlada por el programa de ordenador. ¿Serías capaz de descubrirlo?

Esta teoría podemos encontrarla en otras disciplinas de investigación actuales vinculadas a la interacción hombre-máquina como pueden ser los “captchas” (pequeña prueba que ayuda a determinar si un usuario es una computadora o un humano) , algunas herramientas de comercio electrónico, de control del tráfico aéreo o de minería de datos.

Los “captchas” (esas imágenes con letras difíciles de leer que nos piden las páginas web para registrarnos) son en realidad ejemplos de Test de Turing inverso, donde se intercambian los papeles: la máquina (la página web) actúa de juez e intenta descubrir si el usuario es un humano o no, para así evitar registros automáticos de bots que luego generan spam.

En la medicina tiene gran utilidad al acertar el 85 % de los casos de diagnóstico.

Una máquina supera por primera vez la prueba de Turing

Alan Turing recuerden señaló que de confirmarse su famosa prueba, sería la total evidencia de que las actuales computadoras podrían “pensar” incluso. “Eugene Goostman”, una nueva súpercomputadora programada para parecer todo un adolescente de solo 13 años, se convirtió en la primera máquina en superar con creces el test.

La Universidad de Reading fue la encargada de dar a conocer a primeros de Junio de 2014 que superó la forma para medir la inteligencia artificial.

Hay que recordar en este punto que la prueba fue concebida en 1950 por el matemático y pionero de la informática Alan Turing.
Este test establece que si una máquina lograba engañar al ser humano y éste la consideraba otro ser humano se podría decir que el PC puede pensar.

En este punto, es necesario que el 30% de sus interlocutores humanos crean que están hablando con otra persona y no una computadora en periodos de cinco minutos.

El experimento desarrollado en la Royal Society puso en funcionamiento cinco computadoras para engañar a los interlocutores humanos.
Los resultados dieron de forma comprobada que por primera vez al 33% de sus interlocutores humanos creyeron que hablan con una persona.

Vladimir Veselov fue quien diseñó esa máquina. Es obra de este especialista en informática de origen ruso que trabaja en Estados Unidos, que también lo ha diseñado junto al ucraniano Eugene Demchenko, que vive en Rusia en colaboración a distancia.

Cabe recordar que la Universidad de Reading realiza este test cada año desde 1950 con un observador externo.

En ese momento, si ese observador interpreta que más del 30 por ciento de las respuestas que le da la máquina son de un humano, se aprueba su inteligencia.

El sábado 7 de Junio sucedió esto y logró convencer al 33 % de sus interlocutores que era un humano.

Así lo expresó el profesor Kevin Warwick, de la Universidad de Reading: "Estamos orgullosos de declarar que el test de Alan Turing fue superado por primera vez”.

El docente agregó que esto puede suponer sin duda alguna “una llamada de atención ante el cibercrimen”.

El ruso Vladimir Veselov añadió que “se trata de un logro destacado para nosotros y esperamos que fomente el interés en la inteligencia artificial y los ‘chatbots’".

Según se ha podido saber anteriores experimentos supuestamente habían logrado demostrar que otras máquinas podían “pensar”.

Sin embargo, no fueron dados por válidos como ha sucedido en esta ocasión: “Nuestro experimento se realizó con más pruebas simultáneas comparativas que nunca" dicen sus creadores, que defienden además que fue convenientemente validado.

Inteligencia artificial. Ciberseguridad GITS Informática

Otras opiniones

Sin embargo, existen otras opiniones ante el evento. Aún cuando nosotros mismo no tenemos muy claro qué es la inteligencia, juzgar si un programa de ordenador es inteligente no es nada complicado, y a pesar de lo bien que lo está vendiendo la Universidad de Reading en "Turing Test success marks milestone in computing history" lo de Eugene Goostman no parece tan importante logro.

Eugene Goostman es un bot conversacional –un programa de ordenador diseñado para mantener conversaciones– que se hace pasar por un adolescente ucraniano de 13 años y que consiguió engañar a un 33 por ciento de los 150 jueces humanos que tenían que decidir si estaban conversando con una persona o no haciéndoles creer que en efecto era un chaval de 13 años.

Esto, en efecto, permite a sus creadores y a la Universidad de Reading afirmar que Eugene ha pasado el test de Turing, pero a pesar de lo que se dice en diversos ambientes tecnológicos no es ni la primera vez que esto pasa ni supone un hito en la historia de la informática.

Inteligencia artificial. Ciberseguridad GITS InformáticaAlan Turing dijo en 1950 que en el año 2000 habría ordenadores capaces de mantener una conversación con una persona usando mensajes de texto que serían capaces de engañar a estas personas durante al menos cinco minutos, y que esto pasaría con una probabilidad del 30 por ciento.

Pero tal y como se puede leer en "No Skynet: Turing test 'success' isn't all it seems" ya por 1991 un bot llamado PC Therapist creado por Joseph Weintraub logró engañar al 50 por ciento de los jueces en un test de Turing con 10 jueces, mientras que en 2011 el Cleverbot de Rollo Carpenter llegó a engañar a un 59,3 por ciento de los 30 jueces de otra prueba similar.

Por tanto lo del 33 por ciento de Eugene está bien, pero tampoco parece un logro tan grande.

Y conviene no olvidar además que el hacerse pasar por un adolescente de 13 años le permite enmascarar de alguna forma su falta de conocimientos sobre algún tema o el tipo de respuestas que da, y que además se supone que no tiene el inglés como lengua materna, a diferencia de los jueces, lo que de nuevo jugaba a su favor.

Pero la inteligencia, sea lo que sea, va sin duda mucho más allá de ser capaz de chatear; inteligencia, por ejemplo, es lo que han demostrado los creadores de Eugene a la hora de programarlo y buscar una serie de estrategias que le permitieran pasar el test de Turing.

Así que muchos opinan que podemos seguir respirando tranquilos, al menos por ahora: de Eugene a HAL 9000 aún falta bastante más que dos letras del abecedario.


Inteligencia Artificial y humanización en los Videojuegos

En el caso de los videojuegos el test se realiza dentro del propio juego y el juez tiene que discernir si los personajes que aparecen en pantalla son otros jugadores humanos o bots. Los bots o PNJ (NPC Non-Player Characters) son personajes de videojuego completamente controlados por programas de ordenador.

A diferencia del Test de Turing original, en el que el juez se basa en la conversación que mantiene por medio de un sistema de chat para tomar su decisión, en un videojuego el juicio sobre la “humanidad” de un personaje se basa en otros aspectos.

Por ejemplo, los jueces humanos suelen fijarse en la destreza de los jugadores, el tipo de errores que cometen (o los que no cometen), los movimientos que realizan por las diferentes zonas de un escenario, etc.

Para lograr resultados realistas en el comportamiento autónomo de los NPC, los ingenieros usan diversas técnicas de Inteligencia Artificial.

Por ejemplo, se usan programas para reflejar los diferentes estados de ánimo por los que puede pasar un personaje, árboles de decisión para intentar que la toma de decisiones del personaje se parezca a la de un humano en la misma situación o algoritmos de cálculo de caminos óptimos en grafos para dirigir el movimiento del personaje por un entorno.

Los bots con comportamientos más realistas son muy interesantes para la industria del videojuego, ya que preferimos jugar contra oponentes con personalidad, cuyas reacciones nos sorprendan y que también cometan errores de vez en cuando.

Uno de los retos que se plantea el sector de los videojuegos en la actualidad consiste en conseguir profesionales cualificados en el ámbito de la Inteligencia Artificial. En este sentido, Grados como el que ofrece U-tad en Ingeniería en desarrollo de contenidos digitales, que permite la especialización en este campo, provee a la industria de los videojuegos de especialistas en Inteligencia Artificial aplicable a múltiples campos.

En un futuro próximo los desarrollos de I+D+i en esta área permitirán que tengamos agentes artificiales cada vez más inteligentes en los nuevos productos de la economía digital: personajes virtuales de atención al cliente en la web, presentadores virtuales de noticias o tutores virtuales en aplicaciones de gamificación, entre otros.

Existen múltiples ejemplos de la aplicación de la Inteligencia Artificial en conocidos títulos de la industria de los videojuegos. Llevar a cabo proyectos de tal envergadura requiere dotar a los personajes de un comportamiento verosímil.

En algunos casos, tal comportamiento está basado en un script, un guión que define una respuesta específica ante una serie de condicionantes. Pero otras veces es necesario introducir entidades con una compleja diversidad de parámetros de inteligencia y percepción, como la capacidad de aprendizaje o la de realizar una evaluación táctica.

Factores como el temor, el estado de alerta, el estrés o la moral y cualquier otro rasgo de inteligencia orgánica también pueden ser contemplados a la hora de definir el comportamiento de un personaje no jugable.


TRES LEYES DE LA ROBÓTICA.

Estas leyes surgen como medida de protección para los seres humanos. En ciencia ficción las tres leyes de la robótica son un conjunto de normas escritas por Isaac Asimov, que la mayoría de los robots de sus novelas y cuentos están diseñados para cumplir.

En ese universo, las leyes son formulaciones matemáticas impresas en los senderos positrónicos del cerebro de los robots (líneas de código del programa de funcionamiento del robot guardadas en la ROM del mismo). Aparecidas por primera vez en el relato Runaround (1942), establecen lo siguiente:
  • Un robot no puede herir a un ser humano, ni por inacción dejar que un ser humano sufra daño.
  • Un robot debe obedecer las órdenes impartidas por los seres humanos, salvo si viola la primera ley.
  • Un robot debe salvaguardar su existencia, salvo cuando ésta contravenga las dos leyes anteriores.
Computación cognitiva

Los ordenadores tendrán los sentidos humanos en cinco de años.

Los ordenadores de hoy en día permiten realizar muchas cosas, desde chequear el clima en un país remoto en cuestión de segundos hasta comprar el café de la mañana. Pero IBM se atreve a predecir que pronto estas máquinas serán capaces de oler, probar, ver, tocar y oír.

Este cambio será posible en unos cinco años según informa Mashable. IBM ha publicado su lista «5 in 5» (Cinco en cinco, dónde el fabricante de hardware, predice las cinco tendencias en computación que llegarán en cinco años. En esta ocasión cinco científicos se atreven a señalar que un ordenador no sólo mostrarán imágenes sino que las entenderán y hasta sean capaces de oler una buena taza de café.

Los cinco sentidos forman parte de lo que llaman «Computación cognitiva» que implica que estas máquinas posean comportamientos más humanos.

En una entrevista con el portal especializado en tecnología, Mashable, el vicepresidente de innovación de IBM ha señalado que se trata de una nueva concepción de la computación.

«Tienes que cambiar la forma en que piensas acerca de la absorción de data. Ya no puedes solo tomar una foto y almacenarla. Tienes ahora que tratar ese fotografía como un entidad de un nivel muy alto, algo muy opuesto a verlo como un montón de datos o bits», ha señalado Bernie Meyerson.

El directivo apunta que esta cognición no es igual a inteligencia. No se trata de una máquinas como las de Matrix que sometían a las personas. Meyerson ha señalado que todavía existe un abismo enorme entre computación cognitiva y la inteligencia artificial.

«Esto es realmente una tecnología de asistencia. La máquina no va por su cuenta. No está diseñado para hacer eso. O Para lo que está diseñado en realidad es para responder al ser humano de forma asistencial»

Por ejemplo, para Hendrik F. Hamann, director de investigación de IBM en el campo de la física, señala que debido en unos años los ordenadores, gracias a su detección de oler podrá advertir de un resfriado antes que el usuario tenga síntomas.

«Con cada exhalación, tu liberas millones de diferentes moléculas. Algunas de esas son biomarcadores, que pueden llevar gran cantidad de datos sobre el estado físico de la persona en cada momento. Al capturar la información que contiene, la tecnología puede recoger pistas sobre la salud y proporcionar información diagnóstica muy valiosa», ha publicado Hamann en su blog.


BREVE HISTORIA DE LA IA: El sueño de Turing.
La IA avanza lenta pero firmemente en diversos campos; uno muy conocido es el del ajedrez, con el famoso ordenador Deep Blue, que, si bien auxiliado por un buen puñado de grandes maestros, fue capaz de derrotar en 1997 al campeón mundial Gary Kaspárov. Hay sin embargo aplicaciones menos espectaculares pero de gran utilidad en otros campos y el avance es quizás lento pero sostenido.

Inteligencia artificial. Ciberseguridad GITS Informática
La historia de la IA se remonta a los primeros años de la década del 40, con trabajos teóricos fundamentalmente dado el estado de la Informática en ese momento, cuando los matemáticos Warren McCullock y Walter Pitts, específicamente en 1943, desarrollan los algoritmos matemáticos necesarios para posibilitar el trabajo de clasificación, o funcionamiento en sentido general, de una red neuronal.

En 1949 Donald Hebb desarrolló un algoritmo de aprendizaje para dichas redes neuronales creando, conjuntamente con los trabajos de McCullock y Pitts, la escuela coneccionista. Esta escuela se considera actualmente como el origen de lo que hoy se conoce como IA (IA).

Sin embargo el modelo coneccionista resultó poco tratado hasta hace unos años, dando paso en su lugar al razonamiento simbólico basado en reglas de producción, lo cual se conoce popularmente como Sistemas Expertos
En el año 1955 Herbert Simon, el físico Allen Newell, uno de los padres de la IA actual, y J.C. Shaw, programador de la RAND Corp. y compañero de Newell, desarrollan el primer lenguaje de programación orientado a la resolución de problemas de la IA, el IPL-11. Un año más tarde estos tres científicos desarrollan el primer programa de IA al que llamaron Logic Theorist, el cual era capaz de demostrar teoremas matemáticos.

En el mismo año surge la IA como disciplina de la Informática en la Conferencia de Computación de Dartmouth. En dicha conferencia se estableció como conclusión fundamental la posibilidad de simular inteligencia humana en una máquina.

A finales de los años 50 y comienzos de la década del 60 se desarrolla un programa orientado a la lectura de oraciones en inglés y la extracción de conclusiones a partir de su interpretación, al cual su autor, Robert K. Lindsay, denomina Sad Sam

En 1961 se desarrolla SAINT (Simbolic Automatic INTegrator) por James Slagle el cual se orienta a la demostración simbólica en el área del álgebra.

En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de comprender oraciones en inglés.

En la década del 60 se comienza en el MIT el estudio de la visión artificial, lo cual implica no solo captar imágenes a través de una cámara, sino también la comprensión, por parte del ordenador, de lo que estas imágenes representan.

En los primeros años de la década del 60 Frank Rosemblatt desarrolla, en la Universidad de Cornell, un modelo de la mente humana a través de una red neuronal y produce un primer resultado al cual llama Perceptron.

Este trabajo constituye la base de las redes neuronales de hoy en día.

1984. John Hopfield resucita las redes neuronales
1986. La máquina de ajedrez HiTech de CMU compite en un torneo de nivel master.
1991. Aparecen compañías dedicadas al desarrollo de Redes Neuronales.
1989. El chip del 386 ofrece una velocidad a los PCs comparable a la de las máquinas Lisp.
1990. La compañía TI anuncia imcroExplorer una máquina Lisp con tecnología Macintosh.
1994. La versión para tiempo real del lenguaje CLOS, Lisp con Objetos, de Harlequin se utiliza en sistema de intercambio de AT&T.
1997 Garry Kasparov, campeón mundial de ajedrez pierde ante la computadora autónoma Deep Blue.
2000 Mascotas robots disponibles en el mercado.
2006 Se celebra el aniversario con el Congreso en español 50 años de IA - Campus Multidisciplinar en Percepción e Inteligencia.
2008. Investigadores de la Universidad Pablo de Olavide desarrollan un sistema integral de gestión basado en técnicas de IA, con el objetivo de mitigar los riesgos inherentes a estos sistemas integrados de gestión y facilitar así su implantación en la empresa.
2010. Sensores y sensibilidad: mejores prótesis gracias al avance de la IA
2011 IBM desarrolló una supercomputadora llamada Watson , la cual ganó una ronda de tres juegos seguidos de Jeopardy, venciendo a sus dos máximos campeones, y ganando un premio de 1 millón de dólares que IBM luego donó a obras de caridad.

En la actualidad existen grandes avances en robots que utilizan la IA dando como resultado recepcionistas, jugadores de fútbol, soldados, exploradores y hasta cuidadores de ancianos.


Sobre Alan Turing: indultado 60 años tarde

El británico Alan Turing, genio matemático considerado el padre de la informática moderna y que ayudó a descifrar el código Enigma alemán durante la Segunda Guerra Mundial, ha sido indultado de forma póstuma tras haber sido condenado en 1952 por ser homosexual.

A sugerencia del Gobierno, que actuó impulsado por una petición popular, la reina Isabel II ha concedido el perdón a Turing, que, además de su condena de 61 años por prácticas homosexuales, fue castrado químicamente.

El matemático murió en 1954, a los 41 años, envenenado con cianuro. Aunque el forense determinó suicidio, su familia y biógrafos siempre han mantenido que fue un accidente.

Su condena le obligó a abandonar su trabajo en el Cuartel General de Comunicaciones del Gobierno (GCHQ, centro de escuchas), al que se incorporó tras trabajar durante la guerra en Bletchley Park -mansión en Inglaterra dedicada al análisis de códigos-.

"Alan Turing fue un hombre excepcional con una mente brillante", afirmó hoy el ministro de Justicia, Chris Grayling, que fue quien pidió a la soberana que emitiera el indulto al amparo de la Real Prerrogativa de Misericordia.

"Su brillantez se puso de manifiesto en Bletchley Park durante la Segunda Guerra Mundial, donde fue fundamental para descifrar el código Enigma, contribuyendo a poner fin a la guerra y a salvar miles de vidas", añadió.

Grayling recordó que la vida de Turing, al que a menudo se define como el padre de la informática moderna, "se vio ensombrecida por su condena por actividad homosexual", un castigo que hoy "se considera injusto y discriminatorio y que ha sido repelido".

"Turing se merece ser recordado y reconocido por su fantástica aportación a los esfuerzos de guerra y por su legado a la ciencia. Un indulto de la Reina es un tributo adecuado para un hombre excepcional", incidió el responsable de Justicia.

El primer ministro, David Cameron, dijo a su vez que el inglés fue "un hombre notable que desempeñó un papel clave para salvar a este país en la Segunda Guerra Mundial descifrando el código Enigma alemán".

La máquina Enigma, inventada por el ingeniero alemán Arthur Scherbius, fue utilizada por los nazis para codificar mensajes durante la guerra contra los aliados en Europa.

Campaña para pedir su perdón

El perdón a Turing culmina una campaña de varios años, apoyada por científicos como Stephen Hawking y que también incluyó una proposición de ley presentada en la Cámara de los Lores por el liberaldemócrata John Sharkey.

En septiembre de 2009, el entonces primer ministro, el laborista Gordon Brown, ya se disculpó públicamente por la condena a Turing, que fue acusado en la época de "grave indecencia".


ÁREAS y LENGUAJES DE LA IA

Las áreas de aplicación de la Inteligencia Artificial se pueden dividir básicamente en dos:
(Ver documento PDF asociado y ampliado)
De acuerdo al Contenido: Ya que los seres humanos y otros animales, y también los robots inteligentes y otros artefactos, tienen una amplia variedad de capacidades, todas ellas muy complejas y difíciles de explicar o modelar, tanto en el plano científico como ingenieril, la IA ha generado varios subcampos, tratando aspectos particulares de la inteligencia.

De acuerdo a las Técnicas y/o herramientas utilizadas: Debido a que las aplicaciones de la IA son muchas y muy diversas, algunos de los subcampos se agrupan en torno a las técnicas relevantes a cada clase de problemas.
No obstante, la lista sería casi inabarcable en el presente documento de consulta:

Búsqueda de soluciones, Sistemas Expertos, Procesamiento del Lenguaje Natural, Visión de Maquina, Redes Neuronales, Lingüística computacional, Minería de datos (Data Mining), Industriales, Médicina, Mundos virtuales, Procesamiento de lenguaje natural (Natural Language Processing), Robótica, Mecatrónica, Sistemas de apoyo a la decisión, Videojuegos, Prototipos informáticos, Análisis de sistemas dinámicos, Smart Process Management, Simulación de multitudes.

Como lenguajes utilizados en I.A. podemos destacar:
- IPL II (para el procesamiento de listas)
- SAIL (derivado del ALGOL, para sistemas de visión y procesamiento de lenguaje natural)
- RAIL(lenguaje de robots)
- AL (para calcular los movimientos de un robot en el espacio)
- VAL (para programación de robots industriales)
- AML (desarrollado por IBM para el control de robots)
aunque los más utilizados actualmente son LISP con sus variantes: MACLISP, INTERLISP, ZETALISP Y PSL. Por otro lado está PROLOG. Es mas utilizado en Europa y Japón, de hecho logró que LISP cayera en desuso, aunque en la actualidad se encuentra en plena reactivación.

Relacionados: - Ramas de la IA


SISTEMAS EXPERTOS

El estudio y desarrollo de los sistemas expertos (ses) comenzó a mediados de la década del 60.

”Son programas de computadora diseñados para resolver problemas que normalmente son solucionados por expertos humanos en una rama del conocimiento especifica, y mediante esquemas propios del cerebro humano tales como memorización, razonamiento y aprendizaje automático para apoyar a un usuario en la toma de decisiones”.

Los sistemas expertos son llamados así porque emulan el razonamiento de un experto en un dominio concreto y en ocasiones son usados por éstos. Con los sistemas expertos se busca una mejor calidad y rapidez en las respuestas dando así lugar a una mejora de la productividad del experto.

La IA se utiliza en Sistemas Expertos para representar el conocimiento en una computadora, es decir, consiste en encontrar una correspondencia entre el mundo exterior un sistema simbólico que permita el razonamiento.

En teoría estos sistemas son capaces de razonar siguiendo pasos comparables a los que sigue un especialista (médico, biólogo, geólogo, matemático, etc), cuando resuelve un problema propio de su disciplina. Por ello el creador de un se debe comenzar por identificar y recoger, del experto humano, los conocimientos que éste utiliza: conocimientos teóricos, pero sobre todo los conocimientos empíricos adquiridos en la práctica.

El Procesamiento del Lenguaje Natural es el área de la IA que se encarga de crear condiciones similares a las seguidas por un humano para el procesamiento del lenguaje natural a nivel texto y fonético.


REDES NEURONALES

Sistema computacional que consta de un gran número de elementos simples interconectados, que procesan la información respondiendo dinámicamente frente a estímulos externos.

Componentes: una red está compuesta por nodos o neuronas, que están unidas mediante conexiones a las cuales se le asigna un peso numérico. Los pesos constituyen el principal recurso de memoria de la red, a largo plazo.

Aplicaciones

Sistemas de decisión, Procesamiento de señales, Lenguaje natural, Visión artificial, Reconocimiento de texto escrito a mano e impreso, Control en tiempo real, Problemas de búsqueda de soluciones, Predicción de series temporales.


PERSPECTIVAS FUTURAS.
Inteligencia artificial. Ciberseguridad GITS InformáticaCon poco más de diez años de antigüedad, la Vida Artificial se ha convertido en un punto de referencia sólido de la ciencia actual.

En septiembre de 1987, 160 científicos en informática, física, biología y otras disciplinas se reunieron en el Laboratorio Nacional de Los Álamos para la primera conferencia internacional sobre Vida Artificial.

En aquella conferencia se definieron los principios básicos que han marcado la pauta desde entonces en la investigación de esta disciplina.

Un concepto básico dentro de este campo es el de comportamiento emergente. El comportamiento emergente aparece cuando se puede generar un sistema complejo a partir de reglas sencillas.

Para que se dé este comportamiento se requiere que el sistema en cuestión sea iterativo, es decir, que el mismo proceso se repita de forma continua y además que las ecuaciones matemáticas que definen el comportamiento de cada paso sean no lineales.

Por otra parte, un autómata celular consiste en un espacio n-dimensional dividido en un conjunto de celdas, de forma que cada celda puede encontrarse en dos o más estados, dependiendo de un conjunto de reglas que especifican el estado futuro de cada celda en función del estado de las celdas que le rodean.

Hay dos posturas dentro de la Vida Artificial: la fuerte y la débil.

Para los que apoyan la postura débil, sus modelos son solamente representaciones simbólicas de los síntomas biológicos naturales, modelos ciertamente muy útiles para conocer dichos sistemas, pero sin mayores pretensiones.

Para los que defienden la versión fuerte, dicen que se puede crear vida auténtica a partir de un programa de ordenador que reproduzca las características básicas de los seres vivos.

Desde este punto de vista, la vida se divide en vida húmeda, que es lo que todo el mundo conoce como vida, vida seca, formada por autómatas físicamente tangibles, y vida virtual, formada por programas de computador. Las dos últimas categorías son las que integran lo que genéricamente se conoce como Vida Artificial.


ALGUNAS NOTICIAS LLAMATIVAS:

Inteligencia artificial para proteger el World Trade Center en EE.UU. Miércoles, 22 de febrero de 2012

El World Trade Center (WTC) de Nueva York, en EE.UU., tendrá cientos de cámaras con cerebro, preparadas para detectar movimientos extraños y evitar que el complejo de edificios se convierta en blanco de atentados por tercera vez en su historia.
Una compañía experta en seguridad militar instalará cámaras dotadas de inteligencia artificial y capaces de detectar comportamientos anormales.

El presidente de Behavioral Recognition Systems, John Frazzini, explicó a BBC Mundo que no puede dar detalles del plan de seguridad de la Zona Cero pero describió el funcionamiento de las cámaras, las que se instalarán en un espacio que tiene 6.5 hectáreas.

Las sofisticadas medidas, que tienen un costo millonario, buscan impedir que alguien atente contra el conjunto de edificios, que en un principio incluirá edificios de oficinas, un centro comercial, el memorial de víctimas de los atentados del 11 de septiembre de 2001, un espacio público y una terminal de transporte público.


En alerta

Un equipo de cámaras inteligentes vigilará todos los movimientos del nuevo complejo, que se inaugurará en 2013.

Tras unos días registrando sobre terreno, las cámaras procesarán la actividad normal del espacio que vigilan y se pondrán en alerta cuando detecten movimientos nuevos, como que una persona cambie bruscamente de trayecto o corra hacia peatones, o deje una bolsa o paquete en el suelo.

Las cámaras también reaccionarán cuando un automóvil estacione en un espacio no apto para este uso o permanezca estacionado por un largo período.

El programa informático vigila movimientos genéricos de las personas, que no son identificadas. Espacios como los aseos públicos quedan fuera del radio de acción de las máquinas.

Respetamos la privacidad de los ciudadanos y las cámaras no capturan ni registran información de personas concretas, apuntó Frazzini.

El WTC ha sufrido atentados terroristas en dos ocasiones. Seis personas murieron como consecuencia de un atentado con bomba el 26 de febrero de 1993. Siete años más tarde, el 11 de septiembre de 2001, las Torres Gemelas se convirtieron en el objetivo de los atentados terroristas más sangrientos de toda la historia de Estados Unidos, con un balance de más de 2.700 muertes.

Gran hermano pensante

Hoteles, puertos, aeropuertos y espacios públicos de varias ciudades del mundo utilizan las cámaras inteligentes de Behavioral Recognition Systems.

El nuevo complejo se inaugurará en 2013.

Con sede en Houston, Texas, la compañía tiene oficinas comerciales en Washington, Londres, Sao Paulo, Riad y Barcelona, y también trabaja para el Departamento de Defensa de Estados Unidos.

Frazzini asegura que los nuevos avances tecnológicos convierten a las cámaras en máquinas pensantes y con capacidad de reacción.
En la última década ciudades como Londres instalaron miles de cámaras que no tenían cerebro, explica Frazzini, quien agrega: Se limitaban a registrar comportamientos pero no eran capaces de analizarlos sin la ayuda de seres humanos.

El experto en seguridad recuerda que solo en el Reino Unido hay más de tres millones de cámaras no inteligentes y un número mucho más reducido de agentes que las siguen.

Estas cámaras eran de utilidad en casos de seguimiento de acciones específicas, por ejemplo, si la policía quería vigilar una esquina donde se vendiera droga, explica.

Inteligencia artificial, el futuro: Wozniak. Jueves 09 de febrero de 2012

Las aplicaciones son componentes increíbles en los dispositivos móviles, ejemplo de ello es Siri, un programa que viene en el iPhone 4S, el cual reconoce la voz del usuario, responde preguntas y hace recomendaciones de lugares para cenar o para divertirse dependiendo del lugar donde nos encontremos: “eso es el futuro de las computadoras y dispositivos móviles, el que podamos comunicarnos de manera inteligente humanos con máquinas”, dijo Steve Wozniak, cofundador de Apple, durante el evento de negocios SAP Forum 2012.

En su ponencia, Wozniak hizo un recuento de la historia de la compañía Apple, de cómo conoció a Steve Jobs a principios de los años 70 y de cómo nació la idea de crear una computadora que fuera accesible para todos.

“Estábamos Jobs y yo en nuestros años 20's, no teníamos dinero ni experiencia en negocios, pero teníamos una buena idea, así que la echamos a andar y nuestro primer éxito fue la Apple II”, contó Steve Wozniak.

“El futuro es la comunicación entre máquinas y humanos, y hoy ya lo estamos viendo en nuestros dispositivos móviles, hay una cámara que me reconoce, hay un micrófono que reconoce mi voz y hay una superficie — el touchpad — que reconoce mi tacto… Las aplicaciones jugarán un papel importante y algún día las computadoras serán más importantes para los usuarios que sus amigos reales porque sabrán qué quieren y qué necesitan con exactitud”, aseguró el cofundador de Apple.

Wozniak fundó Apple junto con Steve Jobs en 1976 y creó las computadoras Apple I y II.

Wozniak envió un mensaje a los ingenieros mexicanos: “la videoconferencia será vital; jamás descarten uno de sus sueños; las aplicaciones son vitales; que sus inventos desemboquen en dar soluciones a las personas; sean un ‘Superman', no tengan miedo a nada y no tengan límites”, dijo.

Ciencia que no es ficción
Inteligencia artificial. Ciberseguridad GITS InformáticaSistemas que resuelven diagnósticos médicos y asisten a cirujanos, órganos biónicos para llegar más lejos, robots con habilidades afectivas... Es la era de los post humanos: el futuro está entre nosotros

De La guerra de las galaxias a Matrix , la idea de máquinas que superan a los humanos es una inquietante posibilidad. Los avances en robótica, inteligencia artificial y sistemas expertos han vuelto reales muchos de los planteamientos de la ciencia ficción.

Por primera vez, en 2011 la computadora Watson superó en el juego de preguntas y respuestas Jeopardy a dos oponentes humanos que habían ganado el concurso anteriormente.

El próximo paso de este dispositivo desarrollado por el laboratorio de inteligencia artificial de IBM es convertirse en médico, para revolucionar los diagnósticos clínicos gracias a su enorme poder de procesamiento de variables complejas (como síntomas de enfermedades y parámetros de estudios físicos).

En el campo de las intervenciones quirúrgicas, el robot Da Vinci (operando en el Hospital Italiano de Buenos Aires desde 2008), es capaz de reproducir con sus cuatro brazos los movimientos que, desde la consola, realiza el cirujano. Y los efectúa aún con mayor precisión ya que sus circuitos filtran los casi imperceptibles temblores de la mano.

Y para quienes creen que leer la mente es cosa de brujas y pitonisas, un sistema creado por el investigador Jack Gallant de la Universidad de California en Berkeley permitió escanear los pensamientos de un grupo de voluntarios y reflejarlos en colores en el monitor de una computadora. Asímismo, los sistemas que permiten controlar dispositivos externos utilizando meramente el movimiento de los párpados o impulsos cerebrales (como los que utiliza el científico Stephen Hawking) son parte hace tiempo de la vida cotidiana.

En tanto, la compañía Vint Cerf está desarrollando un protocolo de transmisión M2M (mind to mind) para permitir la transferencia de información entre personas, a velocidades muy superiores a los de los más avanzados módems, según reportó la revista The Economist.

Y eso no es todo. Científicos de la University of Southern California crearon una suerte de implante cerebral que ayudaría a los pacientes con Alzheimer a recobrar los recuerdos. Colocado en una persona normal, serviría para mejorar la memoria. El dispositivo fue testeado en un grupo de ratas a las que se entrenó para encontrar la salida a un laberinto, y luego ese aprendizaje, almacenado en el implante neuronal, se trasladó a otro grupo de ratas inexpertas, quienes automáticamente encontraron la salida.

Si bien las investigaciones son preliminares, la posibilidad de implantar recuerdos de una persona a otra suena por lo menos inquietante. Pero habrá que acostumbrarse, muchas cosas nuevas están llegando.

Para entender lo que se viene es preciso, ante todo, diferenciar algunos conceptos. En primer lugar, la inteligencia artificial es un campo interdisciplinario que busca que las máquinas realicen tareas típicamente humanas, como manejar un auto, encender la calefacción cuando bajó la temperatura, traducir un texto de un idioma a otro, explica Laura Alonso, doctora en Ciencia Cognitiva y Lenguaje, y miembro del Grupo de Procesamiento del Lenguaje Natural de la Facultad de Matemática, Astronomía y Física de la Universidad Nacional de Córdoba.

Alonso coordina, junto con un equipo de científicos cordobeses, el desarrollo de un sistema de traducción automatizado para las lenguas mocoví y quechua, que están en riesgo de desaparición.

Hoy la inteligencia artificial puede ir más allá de sistematizar y automatizar el conocimiento humano. Hay sistemas que se adaptan a nuevos contextos y aprenden a partir de pruebas de ensayo y error, dice la especialista en Lingüística Computacional. Incluso algunos son capaces de descubrir información novedosa y detectar correlaciones y fenómenos nuevos, como aquellos que se utilizan en investigación farmacológica para el descubrimiento de nuevas drogas.

También existen los llamados sistemas expertos, que son muy rápidos y eficientes en un área restringida de conocimiento, como autorizar transacciones con una tarjeta de crédito o gestionar un sistema de reservas aéreas. En tanto, la llamada simulación cognitiva se utiliza para investigar cómo funciona la mente humana para reconocer rostros o interpretar el lenguaje, y cómo trabajan las redes de neuronas.

La llamada Teoría de las Redes es uno de los campos de confluencia entre la computación y la neurología, dado que permite detectar ciertas regularidades en los sistemas complejos. Al igual que Internet, el cerebro tiene pocos nodos que se conectan con una gran cantidad de otros, que a su vez tienen pocas conexiones, dice el físico y biólogo argentino Guillermo Cecchi, investigador en el laboratorio de inteligencia artificial de IBM en los Estados Unidos. Cecchi y su equipo se dedican al análisis de redes complejas para estudiar cómo el cerebro se comunica internamente y cómo piensa. Sus hallazgos ayudarán a comprender mejor y encontrar nuevas alternativas al tratamiento de patologías como la esquizofrenia.

Un laboratorio franco-español impulsará la investigación en inteligencia artificial y lógica computacional. 20/02/2012

El Associated European Laboratory, en el que participan la Universidad Politécnica de Madrid y varias universidades y centros tecnológicos galos, tendrá su sede en el campus de la UPM de Montegancedo desde donde se llevarán a cabo programas de I+D en lógica computacional, ingeniería ontológica, agentes inteligentes y programación declarativa.

La Universidad Politécnica de Madrid colaborará estrechamente con las entidades francesas Université Paul Sabatier Toulouse 3, el Centre National de la Recherche Scientifique (CNRS), la Université Tolouse 1 Capitole, la Université Toulouse 2 Le Mitail y el Institut National Polytechnique de Toulouse para llevar a cabo tareas de investigación y desarrollo en incipientes campos como la inteligencia artificial y la lógica computacional.

Para materializar esta colaboración, la UPM ha puesto en marcha el Associated European Laboratory (LEA), un centro que tendrá su sede en el madrileó campus de Montegancedo y que potenciará la cooperación en áreas relacionadas con la lógica computacional, la ingeniería ontológica, agentes inteligentes, sistemas multi-agentes y la programación declarativa. Así lo ha indicado durante la presentación del centro David Pearce, profesor del Departamento de Inteligencia Artificial de la UPM y codirector del laboratorio junto a Luis Fariñas, director del Instituto de Investigación Informática de Tolouse (IRIT- Tolouse Institute for Informatics Research).

Inteligencia artificial. Ciberseguridad GITS InformáticaEl laboratorio impulsará métodos formales para la seguridad en computación. Según explica Luis Fariñas, codirector del LEA, “introducirá avances para el desarrollo de programas informáticos fiables, certificados como programas seguros”, un tipo de certificación “fundamental para sistemas críticos donde no se pueden permitir errores, por ejemplo en centrales nucleares o aviones”.

La suma de los avances obtenidos por las entidades francesas y españolas “tendrá gran impacto en la productividad de la ingeniería y fiabilidad del software, dada su aplicación en áreas relacionadas con el sector aeronáutico y los dispositivos médicos”, afirma Fariñas.

Algunas de las actividades que se realizarán en el laboratorio serán la participación conjunta en programas de investigación europeos, programas de doctorado, celebración de seminarios y talleres en Madrid y Toulouse, visitas programadas de profesores e incluso intercambios de personal investigador entre ambos países.

Por otra parte, profesores e investigadores del Departamento de Lenguaje y Sistemas Informáticos e Ingeniería del Software de la Facultad de Informática y del Departamento de Ingeniería de Sistemas Telemáticos de la Escuela Técnica Superior de Ingenieros de Telecomunicación de la UPM componen el equipo de expertos que trabajará en la investigación científica en el Associated European Laboratory (LEA), junto a una representación de profesores e investigadores procedentes de los institutos de Toulouse.

En la actualidad, los equipos de investigación involucrados en el laboratorio cooperan ya en proyectos europeos financiados por la Comisión Europea, entre ellos en el nuevo “European Network for Social Intelligence”.



CONCLUSIONES

Como conclusión digamos que nuestro análisis de inteligencia nos indica que dicha propiedad conlleva la conjunción de tres parámetros:

Capacidad: gran potencial para procesar determinado tipo de información.
Tiempo: ejecución rápida de tal procesamiento.
Creatividad: invención de nuevos métodos de procesamiento.

Las dos primeras hacen referencia al binomio hardware/software del que el mundo de la tecnología dispone, con sus limitaciones desde luego, hoy en día. La tercera es una línea de trabajo que todavía resta el que dé o pueda dar sus frutos. De su éxito o fracaso dependerá el futuro de la auténtica revolución pensante de las máquinas.

Dentro del ámbito de las Ciencias de la Computación la IA es una de las áreas que causa mayor expectación, incluso dentro de la sociedad en general, debido a que la búsqueda para comprender los mecanismos de la inteligencia, ha sido la piedra filosofal del trabajo de muchos científicos por muchos años y lo sigue siendo.

Dentro de las áreas de la IA lo que más ha atraído, es el aprendizaje de máquinas, resultando vital el proceso de emular comportamientos inteligentes.

Que un sistema pueda mejorar su comportamiento sobre la base de la experiencia que recoge al efectuar una tarea repetitiva y que además, tenga una noción de lo que es un error y que pueda evitarlo, resulta apasionante.


¿Avance tecnológico o amenaza social?

Al llegar a un perfeccionamiento tal de las máquinas, donde formen un grupo de seres capaces de construir -y al tiempo destruir- una sociedad, se corre el riesgo que tomen el lugar del hombre, que lo reemplacen tan fácilmente en todos los ámbitos que desarrolla, que este cambio progresivo podría verse como un hecho cotidiano, e incluso, necesario. Por ejemplo en el trabajo, si hay una maquina que puede resolver el más mínimo problema al interior de una empresa o fabrica, se prescindiría de la labor humana y solo se requeriría a aquel capaz de construir los robots, claro está, antes que estos se construyan a si mismos.

Mientras se tome conciencia de la amenaza que puede constituir la implementación de estas máquinas pensantes, se van a seguir buscando formas de perfeccionar la Inteligencia Artificial y ya se abren caminos hacia el mundo robotizado, con nuevas ideas teóricas y experimentales que en su clímax iluminen el camino para llegar a la verdadera inteligencia artificial. Aunque parezca absurdo hay muchos eruditos en el campo de la IA que ven el futuro de ésta centrado sobre todo en los chatterbots.

¿Pueden los computadores aprender a resolver problemas a partir de ejemplos?

No hace tanto tiempo esta pregunta bordeaba la ciencia ficción, pero ahora es objeto de profundos y prometedores estudios.
Las redes de neuronas formales son máquinas que poseen esta capacidad de aprendizaje. Son máquinas propuestas como modelos extremadamente simplificados del funcionamiento del cerebro que sienta las bases de un modelo colectivo, donde el sistema global presenta propiedades complejas que no pueden predecirse a partir del estudio individual de sus componentes.

Los estudios teóricos de redes de neuronas reflejan estos dos aspectos: el de la modelización de fenómenos cognitivos y el del desarrollo de aplicaciones.

Por ejemplo para una máquina, la clasificación de rostros, datos médicos o reconocimiento de letras son tareas difíciles, más que para un ser humano. La máquina necesita del aprendizaje, donde el asunto consiste en adaptar los parámetros de un sistema, en este caso artificial, para obtener la respuesta deseada.

Los métodos tradicionales en IA que permitieron el desarrollo de los primeros sistemas expertos y otras aplicaciones, ha ido de la mano de los avances tecnológicos y las fronteras se han ido expandiendo constantemente cada vez que un logro, considerado imposible en su momento, se vuelve posible gracias a los avances en todo el mundo, generando incluso una nueva mentalidad de trabajo que no reconoce fronteras físicas ni políticas. Se entiende como un esfuerzo común.

La comprensión de los mecanismos del intelecto, la cognición y la creación de artefactos inteligentes, se vuelve cada vez más una meta que sueño, a la luz de los enormes logros, tan solo en alrededor de medio siglo de desarrollo de las ciencias de la computación y de poner la lógica al servicio de la construcción de sistemas.

La Inteligencia artificial es la capacidad de una máquina de pensar y actuar como el hombre, pero para lograr esto primero se debe conocer totalmente el funcionamiento del pensamiento humano. En el ámbito tecnológico la Inteligencia Artificial es una de las áreas que causa mayor expectación, incluso dentro de la sociedad en general, debido a que la búsqueda para comprender los mecanismos de la inteligencia, ha sido la piedra filosofal del trabajo de muchos científicos por muchos años y lo sigue siendo.

Sin embargo, este avance tecnológico puede traer graves consecuencias como el desempleo, la veneración y el sometimiento por parte del humano. No se puede negar que la Inteligencia artificial traería grandes ventajas para el hombre; pero también se debe ser consciente de sus implicaciones negativas.

La polémica desarrollada en el ensayo resulta importante en la reflexión acerca del mundo tecnológico globalizado de hoy y deja además de los supuestos anteriores, una idea clara y un poco fatalista pero real: No hay que crear una maquina tan inteligente para que reemplace al humano en sus labores, sobre todo en una sociedad como la de hoy en día, basada en la técnica y la productividad, en la lógica y no en la racionalidad.

Pero aun sin haber desarrollado completamente la inteligencia artificial, ya se ven las graves consecuencias sociales que trae consigo y es probable que al finalizar el análisis y la reflexión acerca de este tema, se evidencie que lo importante es salvarnos de nosotros mismos, pues sin el uso de la razón, los humanos pueden llegar a ser mucho más peligrosos. No se debe olvidar que hoy en día la creación de artefactos inteligentes, se vuelve cada vez más una meta que un sueño; implícitamente se vuelve mas una amenaza social que un avance tecnológico.

Fuentes y webs relacionadas:
John McCarthy (1927–2011), el padre de la inteligencia artificial
El sistema de IA más sofisticado del mundo
El hombre contra las máquinas inteligentes (la gran guerra del futuro)
http://www.microsiervos.com
10 películas sobre IA 


Puedes encontrar más entradas en www.gitsinformatica.com/contenidos.html


Gits mira por tus derechos. Gits es Pro-Vida.

No hay comentarios:

Publicar un comentario

Rogamos sea moderado y constructivo en beneficio de toda la comunidad de Internautas. Considere la posibilidad de ayudarnos con una pequeña aportación dineraria a nuestra cuenta PayPal en nuestra web principal www.gitsinformatica.com Gracias por su colaboración. Que pase un buen día.