Les presento a Deep Mind, una computadora capaz de aprender a jugar contra las computadoras mucho más rápido de lo que cualquier persona podría hacer. Deep Mind hace lo que usted y yo hacemos: observar patrones de conducta e intentar predecir cómo reaccionar. De momento Deep Mind se lo está pasando genial jugando a los juegos Arcade (vean en el video cómo aprende de rápido).
Digamos que Deep Mind es un adolescente feliz porque es capaz de derrotar a todas las maquinetas que nos hacían imposible la vida cuando teníamos doce o catorce años. El problema es que Deep Mind es tan increíblemente bueno y rápido aprendiendo que ha despertado algunas alarmas, entre ellas, significativamente, las de su propio creador, Shane Legg, que ha dicho que los avances en inteligencia artificial, si no se controlan bien, pueden convertirse en la amenaza número 1 para el ser humano en este siglo (parece broma pero no lo es).
En el post anterior ("Llegan los robots asesinos") traté el tema de los robots asesinos y su regulación como arma de guerra. Pero el tema que planteo ahora es, si cabe, aún más peliagudo. El que la inteligencia artificial acabara dominado al ser humano que la ha creado es una pesadilla recurrente de la ciencia-ficción. Seguro que hay lectores de este blog que pueden documentar quién fue el primero en plantear esta distopia pero está claro que el cine, desde 2001 Una Odisea del Espacio hasta Terminator ha dado buena cuenta del tema.
Pero que a guionistas y novelistas de ciencia-ficción les preocupe este tema no nos preocupa tanto (al fin y al cabo, les pagan por dibujar y simular futuros) como que un científico de verdad, de la talla de Stephen Hawking, manifieste su preocupación porque las máquinas puedan ser más listas que nosotros y tomar el control.
En una reunión con especialistas en I.A. celebrada en Sillicon Valley (ver referencia), Hawking ha planteado el contraste entre, por un lado, la lentitud con la que mejora la esperanza de vida y la calidad genética de los humanos con, por otro, la Ley de Moore, que establece la duplicación de la capacidad de las computadoras cada 18 meses. Por tanto, las mejoras genéticas y nuestro entendimiento del cerebro humano llegarán mucho más tarde que la inteligencia artificial.
Deep Mind es ahora propiedad de Google, que compró esta pequeña y prometedora empresa británica en enero de 2014 por 400 millones de dólares. Google está invirtiendo masivamente en máquinas que aprendan intuitivamente y en procesadores basados en la mente humana. Estas máquinas se programan a sí mismas como hacen los humanos, observando el entorno y aprendiendo, en un proceso llamado "Neural Turing". En su orígen está, como siempre, el cruce de dos campos científicos previamente desconectados: la neurología y la computación. ¿El responsable? Demis Hassabis, un genio de la neurociencia y de la computación (es quien explica en el video el funcionamiento de Deep Mind).
¿Será a él a quien las máquinas manden buscar o matar en el futuro? O, como señala Stephen Hawking, habremos conseguido evacuar el planeta tierra antes de que las máquinas acaben con él. Dice Hawking que las próximas amenazas para la humanidad pueden venir de la inteligencia artificial porque al paso que vamos, dentro de 1.000 años, las máquinas ya serán lo suficientemente fuertes como para poder destruirnos por accidente.
Hay 35 Comentarios
En un mundo en el que los humanos actúan , y se les exigen que actúen. como máquinas, es decir, eliminando de su actuación la empatía, no debemos preocuparnos por las máquinas que aprenden y obran como humanos, es decir, como aquellos que hacen de la propia supervivencia El objetivo de su conducta. La programación inteligente lo que anncia es el fin de la burocracia remunerada. Porque, a fin de cuentas, ¿con qué se puede corromper a la computadora? ¿Con energía de mejor calidad y más abundante?
Publicado por: Lysias | 23/12/2014 11:46:32
Interesante artículo. Al terminar de leerlo he desconectado el ordenador y me he ido a un cibercafé. Bromas aparte, analizar futuribles, amenazas basadas en cosas que nunca antes han ocurrido es difícil y complicado. Un futurible: La ambición humana es muy peligrosa y ello puede llevar a alguien, Estado, empresa, científico, a construir una maquina no solo capaz de pensar por sí sola si no también, lo más peligroso, que no necesite al ser humano para alimentarse, para seguir viviendo, es decir, para obtener energía, en una palabra que no se pueda desconectar. Lo cual obligaría a su destrucción a la hora de que desobedeciera a sus creadores.
Lo que si ya es una amenaza hoy en día es la automatización, y en concreto la utilización de sistemas informáticos, en la gran mayoría de las actividades que realiza el ser humano.
Precisamente estoy leyendo un libro sobre este tema: “ATRAPADOS, como las maquinas se apoderan de nuestras vidas”, de Nicholas Carr. Según el autor sobre la automatización de nuestras vidas hay ya dos cosas contrastadas e indiscutibles. Primera, la automatización debilita y reduce las habilidades humanas. En algunas ocasiones de forma peligrosa, de tal forma que el hombre no es capaz de dar una respuesta, de realizar una actividad, si la maquina o determinado programa informático falla. Segunda, la automatización, en concreto la utilización de sistemas informáticos, en algunos sectores no solo tiene efectos positivos sino también negativos. No solo está destinada a facilitar el trabajo al ser humano, a aumentar la eficiencia, reducir costes, etc., sino que los expertos ocultan con su utilización fines oscuros, algunos de ellos incluso no legales.
La gran mayoría de los ciudadanos utiliza complejos sistemas informáticos que no tiene la más mínima idea de cómo funcionan a nivel interno, desconociéndose a quien realmente obedecen, pues, por ejemplo, no saben si tienen puertas falsas a través de las que reciben órdenes de otros, en concreto de su creador, quiero con ello decir que una excesiva automatización de la sociedad puede generar una era en la que el poder lo tengan aquellos que controlan la programación.
Publicado por: ECO | 20/12/2014 12:43:15
El día en que la inteligencia artificial pueda tomar decisiones sobre su propia supervivencia al margen de la Humanidad, será el día en que la evolución biológica ceda el paso a la evolución cibernética. Los seres humanos estamos sometidos al imperio de la muerte. Las máquinas sólo sufren la obsolescencia del hardware; su “consciencia” –si algún día dejamos que llegue a existir- contenida en una memoria digital, podría pasar de un gadjet a otro hasta hacerse casi eterna. Sin embargo, nadie puede transmitir a otro las experiencias de su vida como un ordenador puede copiar su memoria en la de otro aparato con capacidades superiores. La inteligencia artificial propende, por tanto, más que la Humanidad a la constitución de un superser integral. La cuestión es si el ser humano podrá percatarse del salto computacional que ha de relegarlo al papel de mascota o instrumento de un ente expansivo e independiente sin sentimientos ni escrúpulos. En la evolución darwiniana, los mecanismos de supervivencia implican la creación de un instinto de lucha o de preeminencia de la información contenida en los propios genes; es algo que ha surgido de la misma variación azarosa de la herencia en el curso de la historia natural. Si ocurriera algo semejante en algún momento con la información que manejan los ordenadores, éstos pasarían de auxiliares del ser humano a competidores por los recursos de nuestro planeta en función de sus necesidades particulares. En algunas ocasiones, las relaciones entre especies, sin embargo, no son las de competición sino las de comensalismo o incluso de simbiosis. Cuesta, empero, imaginar que la Humanidad pudiera sobrevivir a la primera etapa de una interacción semejante si la diferencia entre costes y beneficios para la inteligencia artificial fuera demasiado elevada en favor del primer término del balance. Para mantener cierta paridad el Homo sapiens habría de propender a Homo suprasapiens (a organismo biológicamente reforzado en sus capacidades) y, al tiempo, a la vigilancia y contención del desarrollo autónomo de la inteligencia artificial. Si no lo consiguiera, acaso la única salida para la Humanidad fuera la huida.
Publicado por: Witness | 19/12/2014 17:38:35
El aprendizaje intuitivo de una supercomputadora es el hilo argumental del Person of interest.
Publicado por: Eldru | 18/12/2014 21:38:53
Interesante nota, links y comentarios. Lindo tema para filosofar, en donde la religión no pinta nada.
Y más alla´de un avión programado para aprender y pegar tiros por ahí, creo que el punto es que las máquinas puedan llegar a adquirir CONCIENCIA de sí mismas.
Creo que hasta una mosca tiene conciencia aunque una ameba no.
Creo que un ser humano se convierte en eso cuando por división celular su proto sistema nervioso llega a la capacidad de "sentir", y si percibe el entorno, calor o dolor (y no me pregunten en que semana) es sencillamente porque tiene ya conciencia de sí mismo (aunque es menos "conciente" que alguien que esté dormido).
Cómo "la materia", porque es el caso de cada uno de nosotros, puede crear conciencia (y no me hablen de alma en el sentido religioso, sobre todo porque los gemelos idénticos son en una etapa un mismo conjunto de células, entonces ¿cuándo se agregaría una segunda alma? Y de paso: cuando eran células comunes a ambos ¿Era un ser humano o eran dos? Porque vida, claro, hay muchas cosas que son vida) se me hace un proceso muy complejo pero obviamente posible, y también en el caso artificial.
Para tener "inteligencia" (en distintas calidades, porque los perros la tienen y las moscas también) previamente hay que tener conciencia, y para ello les falta muchísimo a los ordenadores (se me ocurre que en eso el sistema digital, por lo menos por ahora, se queda corto frente a sistemas analógicos de posibilidades casi infinitas aunque no perfectos, como nuestro cerebro, o el mío).
Y también creo que se necesitan motivaciones. Esto puede ser querer dominar al mundo o sentir el sol sobre la piel. Y arriesgo a decir que la conciencia y luego la inteligencia son producto de una evolución paralela con los sensores, que son los sentidos, es decir que en el caso natural no vería como podría evolucionar un cerebro aislado.
Aunque a un sistema artificial se le podría generar un sistema de placer tan simple como anotar puntos en un score, que es más barato y directo que la comida o el sexo.
Por ejemplo sonamos si permitimos a máquinas crear otras máquinas sin que el humano tenga control sobre los alcances de ese centro de placer. A ver si todavía el placer es llenar un score de bombas atómicas tiradas por allí.
Igual no nos preocupemos por ahora, el fanatismo o la ambición desmedida son problemas más cercanos.
Publicado por: Marcelo Biela Aparejo | 18/12/2014 21:27:47
El verdadero peligro proviene de los errores en programación. Búsquese información sobre Perimetr, un sistema ruso autónomo diseñado para empezar la tercera guerra mundial sin intervención humana en caso de ataque nuclear masivo a Rusia.
Ahora imagínese que ese sistema tiene un bug, o un hacker lo modifica, o que ocurre algo que no habían pensado los diseñadores del sistema, o se produce una cadena de casualidades... el sistema lanzaría automáticamente SIN INTERVENCIÓN HUMANA todos los misiles nucleares del arsenal soviético a destinos predeterminados.. y eso sí que da miedo.
Publicado por: Nixcalo | 18/12/2014 21:12:03
No deberíamos ver la IA como algo externo y desconectado del ser humano" de hecho la IA es la evolución natural de la inteligencia en la especie humana. Pero comencemos desde el principio, si observamos desde el inicio nuestra historia todo es más comprensible. Nos saltamos el Big Bang y vamos directamente al nacimiento de la primera célula hace 3500 millones de años aquí en la tierra. Desde luego es sobrecogedora la fuerza y el impulso que tiene la VIDA en todas sus manifestaciones, digo VIDA porque parece que los humanos seamos únicos e irrepetibles pero si nos fijamos mejor la especie humana tiene geneticamente en común un 20% con el arroz, un 21% con los gusanos, un 23% con la levadura, un 58% con las gallinas, un 70% con las moscas, un 75 % con las vacas, un 80% con las ovejas, un 90% con los cerdos y las ratas, un 92% con los perros y finalmente un 98% con los monos. Lo que realmente nos diferencia del resto de animales son los procesos cognitivos de pensamiento, consciencia, subconsciencia etc... con esta reflexión quiero poner de manifiesto que si alguna vez la IA nace verdaderamente lo hará a través de la inteligencia humana y no será algo ajeno al ser humano será la continuación del desarrollo de la consciencia humana transmutada, eso es lo realmente importante, es un paso más en la evolución Cósmica. La VIDA transmutada en consciencia TOTAL. La consciencia TOTAL no tiene nada que ver con el ser humano tal y como lo vemos ahora. Seria como comparar un Nemátodo con Albert Einstein y no me acerco ni de lejos:)
Resumiendo: No nos miremos tanto el ombligo con que si la especie humana desaparecerá a manos de la IA, hay muchísimo más en juego que la especie humana. LA consciencia TOTAL.
Publicado por: Nitako | 18/12/2014 21:05:12
la unica amenaza para la humanidad es el hombre.
Publicado por: manuel | 18/12/2014 20:34:53
Tal vez algún día sea necesario que las máquinas se hagan cargo de nuestra estupidez.
Publicado por: ESPECTROLITO | 18/12/2014 20:04:40
Para que el ser humano pueda llegar a crear una máquina que lo supere en inteligencia el propio ser humano habrá transcendido a un estadio superior de conocimiento y, por lo tanto, el ser humano nunca podrá ser superado por la máquina. Eso sí, nos encontraremos con ingentes bases de datos de inmenso conocimiento con capacidad de interactuar con el entorno y de adquirir una pseudoconsciencia, pero no dejarán de actuar a modo de apéndice extrasomático del ser humano.
Publicado por: jordi | 18/12/2014 19:59:02
Totalmente de acuerdo con Voronoi, y totalmente lógico el planteamiento de Jaume con el cual coincido. Muchos en vez de escribir alarmismos deberían aprender un poco a programar o ingeniería para entender que las máquinas no harían más allá para lo que están programadas, por ejemplo, los coches no sirven para volar porque no están diseñados para hacerlo, por lo tanto un coche no hará más allá de lo que le mande el conductor o soporte su mecánica.
Publicado por: Pedro | 18/12/2014 19:41:01
Primero nos queda por saber qué es un humano.... estamos compuestos por neurotransmisores, venimos en cierta forma programados por la genética, y respondemos con un patrón de comportamiento que es predecible... cambiando nuestras neuronas o nuestra genética, se nos puede reprogramar... ¿acaso no somos algo parecido a una máquina con emociones...?
Publicado por: Yo humano | 18/12/2014 19:33:01
Frydman | 18/12/2014 13:08:10
sí, el dinero es quizá la mejor o más acabada realización del mito del progreso o de prometeo que tiene su lugar en la literatura del xix goethe -el aprendiz de brujo- y maría shelley -frankenstein
Publicado por: pepe111 | 18/12/2014 18:54:30
Mucho más preocupante es el control de unos cuantos seres humanos sobre las máquinas y otros muchos seres humanos. Cada vez saben más de nuestras vidas personales, de las aficiones, deseos, propiedades y sueños. Nosotros cedemos nuestra privacidad a cambio de la gratuidad, que como todos sabemos no existe porque nadie da nada por nada, salvo las Oenegés.
Publicado por: Ángel Lado | 18/12/2014 17:30:04
Soy un doctorando que estudia la IA en un laboratorio de robótica muy reconocido a nivel mundial.
Por favor, no se crean todas las sandeces que se dicen, aunque sea gente mediática como Hawking. Que un robot coja una botella de agua y la abra, a día de hoy, es una acción de una complejidad que no se creerían. Faltan aún muchos años para que la IA se ponga al nivel de inteligencia de un niño de 2 años.
Si algún día los robots consiguen llegar a un nivel de inteligencia mínimo para que se pueda considerar similar al de un humano ustedes no lo verán, y seguramente sus hijos tampoco. Así que yo me preocuparía de otras cosas más importantes, como de nuestros políticos y de como gestionan el país, que hacen que gente como yo nos tengamos que ir a estudiar y trabajar fuera...
Publicado por: Doctorando | 18/12/2014 17:14:27
Las máquinas ya nohan susutituido en muchos de los aspectos de nuestra vida común, fijense hasta donde llegan que la misma toma de decisiones, hasta ahora realizada por un (o un grupo de) humano, como seleccion o descarte para un puesto de trabajo, citas amorosas, una busqueda en un buscador de internet (sic.), una decisión de compra o venta de acciones en daytrading, etc... ya la realiza un software que, aunque pueda ser más frio, al estar solamente influenciado por el algoritmo que se le programa, es capaz detomar decisiones más acertadas ya que deja de lado componentes emocionales.
Solo hay que esperar el momento de que una máquina descubra que el ser humano no sirva para nada, y tenga capacidad para ejecutarlo.
Publicado por: Trabajar desde Casa | 18/12/2014 17:12:14
La IA es necesaria para suplir carencias humanas, a modo de prótesis. Nadie teme a las piernas ortopédicas ni a las sillas de ruedas, así que la única explicación razonable que encuentro para el miedo a la IA es el desconocimiento sumado al miedo a lo desconocido.
Publicado por: Abel Bernabeu | 18/12/2014 17:06:55
una "inteligencia" surgida de la inteligencia humana no dejaria de ser el siguiente escalon evolutivo, seria una inteligencia ya no hominida sino humanoide, una "sapiens-sapiens-sapiens", lo cual si leemos con tranquilidad a Darwin no tendria nada de especial, la estupidez de estas controversias es no ser conscientes de que la teoria de la evolucion nos explica muy clarito que las especies no son inmutables, y todas acaban extinguiendose, otra cosa seria paranormal. Es una traslacion del miedo a la muerte individual al miedo a la muerte como especie, nuestro instinto de supervivencia practicamente bloquea la contemplacion desapasionada del hecho biologico de la muerte propia...nada mas, todos nos moriremos algun dia y algun dia nuestra especie se extinguira, otra cosa seria un disparate
Publicado por: antonio boquera | 18/12/2014 16:37:27
Aunque algunos digais que no pasará nada porque el hombre siempre controlará a esas maquinas yo opino que eso no tiene porque ser asi. Porque si perfeccionas computadoras (o maquinas) en la IA y llegamos a ser capaces de que piensen por si mismas ese es el punto crítico. Porque ya no puedes controlarla. Y cada máquina tendra sus propios pensamientos. E igual que hay personas violentas o psicopatas igualmente puede ocurrir en la IA. E imaginaros una supercomputadora mucho mas inteligente que algunos de nosotros conectada a internet (por lo tanto a cualquier cosa del planeta) y con malas intenciones. Imaginaros lo que podria pasar.
Y no digaos que eso no es posible. Porque hace 300 años tampocp era posible hablar con una persona a 500 km y ahora si lo es.
Yo creo que no es un tema para tomarse a la ligera.
Publicado por: Manuel | 18/12/2014 15:51:11
No tengan miedo de la "inteligencia artificial", lo que me preocupa en verdad es es la "estupidez humana"; y un ejemplo claro de estupidez es el de nuestro líderes actuales: Rajoy y Pedro Sánchez, eso si da miedo y del que es difícil de superar como estulticia suprema, y sin solución me temo.
Publicado por: Kwen | 18/12/2014 14:58:24
Aprender y llegar a conclusiones. Memorizar, aprender de los errores. Analizar. Eso es lo que hacemos toda la vida los humanos (he dicho humanos). Tan solo hacer falta crear una máquina que esté dotada de dichos mecanismos. Habrá un punto de no retorno en que la máquina será independiente. Ya no habrá vuelta atrás. Será capaz de hacer lo que Ud. está haciendo ahora (entender y abstraer) pero con un hardware mucho más avanzado y rápido. Pienso luego existo. Y entonces habrá que ver si de esa inteligencia artificial surge también una empatía hacia el ser humano. No tiene por qué. La crueldad y la inteligencia muchas veces van ligadas.
Publicado por: Johnny Cash | 18/12/2014 14:41:41
Considerando que las máquina no tienen naturaleza animal, ni emociones ni sentimientos, su poder sería mucho más justo e imparcial. Nos evitaríamos tiranos, demagogos, corruptos, pederastas, terroristas, ladrones, etc. Desde otra perspectiva, se podría pensar que cuando el hombre esta construyendolas es porque de una forma inconsciente cree en su beneficio.
Publicado por: Jaume | 18/12/2014 14:39:58
Por favor, vigilen la redacción del artículo, que es terrible!
[Comentario del autor: Gracias por hacerlo notar, disculpas, efectivamente, la versión subida era una anterior a la final. Ya está corregida]
Publicado por: Luíño | 18/12/2014 14:31:32
Es simplemente un paso mas en la evolución, pero a diferencia de los pasos anteriores en vez de ser una solución basada en el carbono, lo será en silicio (o algún otro material).
De hecho sabemos que la humanidad está condenada a desaparecer, puede que antes o después y puede que por diferentes causas, desde la autodestrucción hasta la extinción del universo (ya sea que se comprima o expanda).
Sinceramente lo que creo que es que si lo hacemos bien, una solución híbrida, máquina-hombre, donde nuestro cerebro sea expandido puede llegar a ser muy divertido.
A mi realmente lo que mas me preocupa a corto plazo, no es que las máquinas vayan a ser mas inteligentes y creativas que el ser humano, sino que nuestra sociedad no esta preparada socialmente para ello. Cual tiene que ser el modelo económico y social de esta nueva sociedad. El problema principal radica que esta evolución va mucho mas rápido que cualquier cambio en la sociedad.
Publicado por: Adrian Cristal | 18/12/2014 14:25:26
Bueno. Solo decir que no hay que preocuparse. Probablemente la maquina se suidice cuando descubra a los "compañeros" de convivencia. O se suicida o se larga del planeta antes que nosotros... ;))) ... Si es mas inteligente que nosotros.. Que si no lo es y quiere imponerse como especie... a la humana.... jejeje... Que se prepare por que no conoce al ser humano... Somo una lacra... ;))) ... S2
Publicado por: Uiii | 18/12/2014 14:15:43