Elon Musk:"Los robots lo harán todo".

7 respuestas
Elon Musk:"Los robots lo harán todo".
Elon Musk:"Los robots lo harán todo".
#1

Elon Musk:"Los robots lo harán todo".

El fundador de Tesla y SpaceX, Elon Musk, comentó en el marco de una reunión de la National Governors Association la necesidad de una rápida regulación que supervise el desarrollo de la inteligencia artificial ya que se trata del "mayor riesgo al que se enfrenta la civilización" con respecto al empleo y la desestabilización social.

 

Tanto es así que Musk considera que el auge de la inteligencia artificial y el desarrollo de las máquinas hará que los robots copen todos los sectores, de este modo no sólo llegarán para sustituir puntuales empleos en almacenes, fábricas o restauración, sino que afectarán por completo a la sociedad tal y como se entiende ahora. "Cuando digo todo, los robots lo harán todo, sin duda", sentenció el empresario.

Musk, que se encuentra desarrollando el proyecto Neuralink para permitir  conectar el cerebro con dispositivos electrónicos y que ha propuesto  una renta básica para contrarrestar el auge de la robótica, cree que se necesita ser proactivo con respecto a la regulación en inteligencia artificial porque si no se actúa con rapidez "puede ser demasiado tarde". 

La argumentación de Musk para regular este desarrollo tecnológico reside la combinación de la cantidad de posibilidades que abre la inteligencia artificial, con la presión de muchas empresas de Silicon Valley por llegar a un sistema de inteligencia artificial avanzada frente a un riesgo de ser completamente irrelevante en el mercado.

"Tengo acceso a la inteligencia artificial más vanguardista, y creo que la gente debería estar realmente preocupada por ello. La inteligencia artificial es un riesgo fundamental para la existencia de la civilización humana. [...] Se necesita que los reguladores establezcan límites, de lo contrario los accionistas estarán diciendo, ¿por qué no están desarrollando Inteligencia artificial más rápido? porque la competencia lo hace", argumentó Musk.

Un futuro oscuro

Aunque el principal problema que ve Musk con respecto al desarrollo rápido de la inteligencia artificial es con respecto a la competencia de las máquinas con el ser humano en el empleo y la desestabilización social, el empresario abre la puerta a que esta tecnología pueda ser usada a conciencia para hacer mal al ser humano.

Según recoge Fortune, el CEO de Tesla explica que la exposición de la inteligencia artificial a internet puede hacer que multitud de dispositivos conectados y de los que depende el ser humano se vuelvan contra la sociedad creando un pesimista futuro tecnológico en el que se comience a usar la tecnología para doblegar poblaciones.

"Se podría comenzar una guerra haciendo falsas noticias, falsificando cuentas de correo electrónico y emitiendo falsos comunicados de prensa. Simplemente manipulando información. La pluma es más poderosa que la espada", apuntó Musk, quien comentó además que esta hipotética situación podría ir todavía a más si la inteligencia artificial bombease las inversiones de inversiones de la industria de defensa realizando hacking con lo que una campaña de desinformación podría ser extremadamente rentable para dichos objetivos.

Lo cierto es que no es la primera vez que Musk se posiciona frente a la inteligencia artificial de esta forma. Ya en 2014 explicó que estaba invirtiendo grandes cantidades de dinero en esta industria para evitar que las máquinas gobiernen al ser humano, de forma parecida a la película  Terminator.

#2

Re: Elon Musk:"Los robots lo harán todo".

La verdad es que no sé que pensar sobre Elon Musk... Lo digo en serio. A veces sus aportaciones me parecen geniales (como la evolución de esos cohetes reutilizables que despegan y aterrizan para poder reutilizarlos -menos costes-); en cambio, su trayectoria en Tesla o sus loas hacia la I.A. me generan un montón de dudas. No creo que los coches eléctricos tengan gran recorrido sin las subvenciones estatales para su compra (¿has visto como han bajado las ventas en Dinamarca? Es un desastre absoluto sin precedentes...); y respecto a la I.A. quedan décadas, sino centurias, para que sea viable. No hay nada comparable al procesamiento paralelo de datos del cerebro humano.

No sé si es un genio o un payaso.

 

Un abrazo!

#3

Re: Elon Musk:"Los robots lo harán todo".

Yo discrepo de las IA's si, ahora mismo es complejo y requiere muchos recursos crear un esbozo difuminado de lo que podrian ser pero en cuanto demos el salto cuantico ya tendremos capacidades de procesamiento soñadas a un coste aceptable y creo que lo veremos en unas cuantas decadas.

Y si, me dan mal rollo las IA's, cosas de leer o ver sci-fi 

#5

Re: Elon Musk:"Los robots lo harán todo".

Buenas,  kerb.

 

Cómo bien dices, actualmente la IA está en pañales y los profanos estamos expuestos al manoseo interesado de nuestra ignorancia y más íntimos miedos.

Os dejo un a interesante entrevista con un experto en AI (español, por cierto), nada menos que el director del Instituto de Investigación en Inteligencia Artificial del CSIC, Ramón López de Mántaras:

 

No es el robot físico el que va a quitar el trabajo"

El director del Instituto de Investigación en Inteligencia Artificial del CSIC (España), Ramón López de Mántaras, afirma que la inteligencia artificial ya nos rodea por completo, pero no como algunos la dibujan

 

Nada más bajarse del tren en Madrid (España), el director del Instituto de Investigación en Inteligencia Artificial del CSIC, Ramón López de Mántaras, empieza su alegato contra los gurús y términos como la singularidad. Admite que aunque hablan de conceptos que seducen y embelesan, sobre todo a los medios, la realidad no tiene nada que ver. Ni máquinas que sustituyen a los médicos ni ciudades repletas de autómatas con forma humana. "No es el robot físico el que va a quitar el trabajo. La gente se piensa que habrá un robot con forma humana que estará allí haciendo su trabajo, pero no: será software", explica este investigador, que en 2011 se convirtió en el primer ganador no norteamericano del premio Robert S. Engelmore que otorga la Asociación Americana de Inteligencia Artificial.

Vivimos rodeados de inteligencia artificial, explica Mántaras. Sin embargo, "todos son ejemplos de inteligencia artificial específica o débil". Detalla que se trata de "sistemas diseñados para hacer muy bien algo muy concreto, pero que no pueden transferir sus conclusiones a otra cosa similar pero distinta". O, como él dice,  Alpha Go, el software inteligente de Google que derrotó al campeón mundial del histórico juego de mesa Go, no podría ganar al parchís.

WatsonLibratus, Alpha Go… Últimamente hay tantas noticias sobre inteligencia artificial que uno no sabe qué mundo le espera al levantarse.

Es cierto es que  el aprendizaje profundo ha logrado éxitos indiscutibles. Como detectores de patrones son casi inmejorables, tanto para el  diagnóstico de imagen médica como para jugar al Go. Hace que parezca que toda la inteligencia artificial es eso, pero se sigue trabajando en todo. Cuando hablabas de inteligencia artificial hace unos años se decía "el conocimiento es poder". Ahora hemos pasado a "los datos son poder". Si tienes acceso a grandes cantidades de datos y hardware de altas prestaciones, ya tienes una máquina genial para un montón de cosas con aprendizaje profundo.

Pero los sistemas de aprendizaje profundo tienen un problema: son cajas negras. Te dan una predicción, un reconocimiento de un patrón, que puede ser correcto, pero  no puedes ver qué proceso de razonamiento han seguido porque no hay un razonamiento como tal. Analiza grandes cantidades de datos y te da unas respuestas. Te las puedes creer o no. Pero no tienes manera de saber por qué ha llegado a una respuesta y no otra. 

La historia de la inteligencia artificial es en parte una búsqueda constante para lograr un cerebro digital. Pero, ¿no podría ser  que la solución no pasara necesariamente por emular lo humano?

Un avión vuela sin batir las alas. La solución no es la misma que la de la naturaleza. Y lo mismo pasa en la inteligencia artificial. No sigue un proceso biológico. Aunque la inteligencia humana es el referente y la inspiración, las soluciones no pasan por imitar fielmente al cerebro humano. Porque, aunque tuvieras  un mapa del conectoma humano y lo reprodujeras, hay un salto entre esa actividad física al nivel de las neuronas, sean biológicas o artificiales, y cómo emerge la inteligencia. Eso nadie lo sabe todavía.

¿Cuáles son las líneas de trabajo más relevantes en este momento?

A corto plazo no creo que haya algo muy distinto de lo que estamos haciendo. Piensa que la inteligencia artificial se está aplicando a todo lo que uno se pueda imaginar. Desde la  logísticael arte, el entretenimiento, el comercio electrónico... Se ha metido en todo lo que implica ayudar a la toma de decisiones:  recomendarte libros, películasconcesión de créditos, medicina... Sí que habrá un salto cualitativo importante el día que todos los vehículos, o la inmensa mayoría, sean autónomos.

Muchas informaciones indican que esa es  una realidad más cercana que lejana.

No estoy tan seguro. Tendrás que asegurar, por ejemplo, que el coche no tendrá más de un accidente por cada millón de kilómetros. Conseguir un error aceptable y mejor que el humano. Pero las técnicas de verificación y evaluación de software actuales están muy lejos de garantizar la robustez de los coches autónomos: tienes coches a muy pocos metros y  las reacciones son en milisegundos.

Además, lo que un software de aprendizaje automático aprenda  dependerá de las observaciones y datos con que se haya encontrado. Coches distintos tendrán experiencias distintas y sus algoritmos evolucionarán de forma distinta. ¿Qué significará validar y verificar? ¿De dónde sacas un test de pruebas? Es mucho más complejo cuando el software implica un algoritmo de aprendizaje.

La transferencia tecnológica siempre fue un obstáculo para que el mercado se beneficiara de los avances tecnológicos, pero ahora vemos  que empresas privadas como IBM, Facebook, Amazon, Google, Microsoft y Baidu controlan la batuta de la inteligencia artificial.

Me preocupa enormemente y es uno de los peligros que tenemos.  Ellas van a maximizar beneficios para sus accionistas, tienen una finalidad lucrativa. Eso puede llevar la inteligencia artificial hacia caminos que quizá no sean para el bien común. Algunas de estas empresas están involucradas en Estados Unidos en una organización que  habla  de asegurar una  inteligencia artificial " buena". ¿Van a sacrificar grandes negocios? ¿Será prioritario esto antes que los beneficios? ¿Se transformarán de pronto en una ONG? Lo dudo. Creo que todo lo que dicen es para lavarse la cara. Saben que tienen un problema de imagen.  Dudo que sean honradas y honestas cuando dicen que les preocupa tanto el uso adecuado de la inteligencia artificial.

¿Considera que la sociedad, los países, son conscientes del posible impacto de la inteligencia artificial?

Hay gobiernos que por lo menos están promoviendo debates. También el Parlamento Europeo. Sí que hay movimiento, pero la tecnología va más deprisa. A lo mejor es inevitable ir por detrás. ¿ Cómo vas a anticipar algo que no ha ocurrido? Los políticos y abogados tendrían que ser tecnológicamente más visionarios que los propios tecnólogos e investigadores. Estar por delante lo veo imposible, aunque quizá se podría reaccionar más rápido. No me consta que el Gobierno español haya convocado a ningún experto para tratar estos temas. Hay cosas, pero globalmente no parece que le preocupe demasiado a la élite política.

¿Y las empresas son conscientes?

Muchas empresas se han dado cuenta de que o juegan al juego de la inteligencia artificial o lo van a pasar mal. Se están poniendo las pilas, y no sólo las grandes. También pequeñas empresas de cualquier sector. Hay miles de aplicaciones con inteligencia artificial que ya están funcionando. Pero estas empresas no tienen que desarrollar los algoritmos. No hay que confundirse. Serán usuarias y necesitarán la capacidad de adaptarse.

A usted no le gustan las predicciones, pero ¿de qué hablaríamos si repetimos esta conversación en diez años?

[Risas] Muchos de los temas actuales seguirían presentes. Lo que es muy probable es que veamos  cosas muy muy impresionantes en el mundo de la medicina. Dentro de diez años nos parecerá mentira que los sistemas de inteligencia artificial la hayan mejorado tanto. Pero tampoco creo que tengamos robots domésticos con forma humana planchando en casa.

La ayuda a la toma de decisiones sí que será mucho más potente que la actual, pero me gustaría que el factor humano no desapareciera, que estuviera detrás validando, comprobando, diciendo "de acuerdo", "vale". Pero no todo el mundo opina igual. Hay quien piensa que cuando su decisión sea de alta calidad pasemos del humano que revisa. A mí me gustaría que  el binomio persona-máquina trabajara junto, que sea mejor que cualquiera de los dos por separado.

https://www.technologyreview.es/s/8454/no-es-el-robot-fisico-el-que-va-quitar-el-trabajo

 

Saludos intentando entender algo que nadie conoce bien.

 

 

#6

Re: Elon Musk:"Los robots lo harán todo".

Buenas,  Claudio.

 

Realmente no sé qué pensar tampoco de Musk; creo que camina en un fino alambre entre el genio y la bipolaridad con toques de esquizofrenia; pero ahí  le tienes, liderando el mundo y con masas de incondicionales.

Claro, que cuando escuchas a Stephen Hawking decir que la inteligencia ausura el fin de la raza humana o que hay 1ue crear un gobierno mundial para evitar que la AI nos domine, pues no se te pone buen cuerpo, no.

 

Os dejoun artículo de Enrique Dans, profesor de innovación del IE business school. 

 

Los temibles peligros de la inteligencia artificial

Mi columna en El Español de esta semana se titula “Inteligencia artificial y miedos irracionales” ( pdf), y es un comentario al hilo de las declaraciones de  Elon Musk, sin duda una de las personas más influyentes, respetadas y  seguidas del actual entorno tecnológico, en las que reclama “ regulación para la amenaza existencial que supone la inteligencia artificial, antes de que sea demasiado tarde“.

Que una petición de este tipo venga nada menos que de la persona que convierte en realidad retos tecnológicos tan complejos como el  vehículo eléctrico, la  generación de energía sostenible o la  exploración espacial es algo que resulta, en principio, inquietante. Sin duda, Elon Musk no es un indocumentado que opine desde la barra de un bar. Que su preocupación se una, además, a las de personas como el físico teórico  Stephen Hawking o el fundador de Microsoft,  Bill Gates, podría desencadenar toda una epidemia de miedos y prevenciones. Sin embargo, el hecho de que ninguno de ellos tenga experiencia concreta y directa en la investigación o el desarrollo de este tipo de tecnología es algo que debe más bien llevarnos a considerarlo más bien como un caso de libro del llamado  argumento o falacia de autoridad: el hecho de que sean personas indudablemente destacadas en otros ámbitos de la ciencia o la industria no convierte necesariamente sus preocupaciones en elementos que no puedan ser discutidos o puestos en duda.

En múltiples ocasiones he hablado de las enormes posibilidades del machine learning, la parte que considero en este momento más real y prometedora de eso que se ha dado en llamar inteligencia artificial y que no deja de ser un conjunto laxo de tecnologías que algunos piensan que terminarán llevando a que una máquina piense como una persona. Por el momento, las máquinas son capaces de muchas cosas: el hecho de que sean capaces de aprender a partir de un conjunto de datos dentro de un escenario sujeto a una serie de restricciones y reglas claras e inmutables, por ejemplo, es algo que lleva a cientos de compañías de todo el mundo a pagar por herramientas que permiten tal posibilidad, y que hacen que puedan optimizar procesos y convertirlos en ahorros o en ganancias de eficiencia. Las máquinas son capaces de reconocer imágenes, de participar en conversaciones, y por supuesto, como es bien sabido por su uso como argumento publicitario, son  capaces de ganar a los humanos en cosas como el ajedrez, el Jeopardy, el Go o el póker. Sin embargo, en todos esos casos seguimos hablando de lo mismo: de la dedicación de la máquina a una tarea que se intenta limitar de todas las maneras posibles a un escenario completamente cognoscible, a un conjunto de reglas fijas y un contexto estable en el que, además, sea posible acumular y analizar una gran cantidad de datos. Extrapolar estos casos para imaginar una inteligencia “completa”, un robot capaz de tratar de manera inteligente una situación general, no limitada ni restringida por una serie de reglas fijas, es algo tentador, pero no real. Pasar de ver algoritmos capaces de construir procesos de aprendizaje en tareas específicas a imaginarse a Skynet, esa red de ordenadores de Terminator convencida de que debe acabar con la raza humana es algo indudablemente fácil, pero para considerarlo una realidad es preciso pasar por un sinnúmero de saltos conceptuales que están aún muy, pero que muy lejos, si es que en algún momento llegan a tener algún viso de realidad.

Reclamar regulación sobre una tecnología o conjunto de tecnologías antes de que se desarrollen es un problema. La regulación parte de una base muy problemática, y es que muy pocas veces se desarrolla de la manera adecuada, y tiende a basarse en la restricción de posibilidades. Eso la convierte, por un lado, en algo por lo general imposible de llevar a ejecución en un mundo en el que esa regulación tiene en prácticamente todos los casos un ámbito estrictamente territorial – los intentos de regulación a nivel global son pocos y, por lo general, con desigual nivel de cumplimiento – y, por otro, en una manera de identificar los elementos que permitirían, en caso de obtenerse, generar una supuesta ventaja. Regular – o mejor dicho, restringir – el uso de transgénicos en Europa, por ejemplo, o de tecnologías de manipulación genética en otros países es algo que ya está siendo activamente utilizado en otros países para obtener ventajas tangibles en términos de productividad y de avance científico. Plantear que sistemas regulatorios que resultan tan malos e ineficientes se apliquen a un conjunto de tecnologías con tanto potencial, y generar una especie de histeria colectiva en torno a la posibilidad de robots más inteligentes que las personas desplazándose por las calles y dedicándose a matar todo lo que se mueve, como si algo así fuese a llegar pasado mañana, me parece inadecuado y peligroso. Y cuantas más personas conozco trabajando directamente en el ámbito del machine learning, de la IA o de la robótica, más me convenzo de que es así. Por muchas películas que veamos, Skynet no está ni se le espera.

Esperemos que esas peticiones de regulación no lleguen a ningún político temeroso e inspirado. Y mientras tanto, sigamos trabajando.

https://www.enriquedans.com/2017/07/los-temibles-peligros-de-la-inteligencia-artificial.html

 

Elon Musk lanzó Open AI como organización ¿sin ánimo de lucro? para investigar y desarrollar una AI "amigable" junto con Sam Altman, Greg Brockman, Peter Thiel,... microsoft,  amazon,...

Seguro que el futuro en que la AI se desarrolle de forma muy superior no lo vamos a ver nosotros, pero no tengo claro si me da mas miedo que se alíen Hall  9000 y Skynet para controlar a Terminator y Sonny,  o que un grupo de visionarios que desean el bien a la humanidad se junten con empresas privadas para decirnos y obligarnos a hacer lo que está bien o mal.

 

Saludos con más miedo a los hombres que a las máquinas. 

 

#7

Re: Elon Musk:"Los robots lo harán todo".

Buenas,  The spanish.

 

Para que no se hiciera muy largo,  dejo el artículo dela profesor Enrique Dans en el periódico:

 

Inteligencia artificial y medios irracionales

  Elon Musk, una de las personas más  seguidas y admiradas del mundo, con mayor reputación y logros demostrados a la hora de enfrentarse a retos tecnológicos como el  vehículo eléctrico, la  generación de energía o la  exploración del espacioha reclamado  una regulación urgente de la inteligencia artificial por su carácter de amenaza existencial para la humanidad, antes de que sea demasiado tarde

El genio sudafricano se une así a otras personalidades, como el físico teórico  Stephen Hawking o el fundador de Microsoft,  Bill Gates, al prevenir al mundo sobre los peligros de la inteligencia artificial. Pero... ¿existen realmente esos peligros? ¿Son realmente estas personas, si evitamos caer en la conocida  falacia de autoridad, expertos en ese campo? ¿Tiene sentido tanta prevención?  ¿Realmente existe la famosa “hipótesis  Terminator, por la cual supuestamente las máquinas toman conciencia de sí mismas y eliminan a los humanos? 

La realidad es que  ninguno de los autores de esas declaraciones trabajan en el desarrollo de la llamada inteligencia artificial. La  inteligencia artificial es, por el momento, una serie de hipótesis y conjeturas de futuro, un conjunto de tecnologías que, a medida que maduran y alcanzan cierto nivel de desarrollo, se independizan de ella. El  machine learning, la capacidad de que una máquina aprenda sin ser explícitamente programada para ello a partir de unos datos, es, en cambio, una realidad por cuyo desarrollo y aplicación pagan cientos de empresas muy destacadas en todo el mundo.  Soluciones reales a problemas reales

El salto conceptual que se da cuando vemos a un algoritmo ganar  al ajedrez, al Jeopardy, al Go o al póker para pasar a pensar que es capaz de cualquier cosa que la inteligencia humana pueda abarcar es comprensible... pero no es real. E sos algoritmos son capaces de desarrollar una serie de tareas en contextos estables hasta el punto de superar a humanos altamente competentes, pero solo cuando las circunstancias son altamente predecibles, las reglas son claras y resulta razonablemente fácil recolectar gran cantidad de datos de entrenamiento. No es poca cosa: muchos problemas y decisiones de nuestra vida actual responden a esos esquemas. De ahí a inteligencias complejas, capaces de tomar decisiones autónomas en problemas de ámbito general y sin restricciones, va un mundo. Es, según  Andrew Ng, como “ preocuparse por la superpoblación y la contaminación en Marte cuando aún no hemos puesto un pie en ese planeta”. 

Regular e hiper-legislar una tecnología cuando está en sus inicios es una forma segura de hacer las cosas mal. Por favor, pongamos los miedos irracionales en su sitio. 

http://www.elespanol.com/opinion/columnas/20170720/232856714_13.html

 

Saludos inteligentes, pero muy humanos.

#8

Re: Elon Musk:"Los robots lo harán todo".

Buenas, kerb31.

 

Venga, un poco más de miedo sobre la IA; hace mucho calor, estamos de vacaciones y es bueno rebajar el tono de debates y procupaciones por la economía:

 

Facebook desconecta un sistema de IA que había creado su propio lenguaje

Las grandes empresas tecnológicas están redoblando sus esfuerzos en el desarrollo de la inteligencia artificial, pero algunos de esos trabajos tienen que ser suspendidos súbitamente. Eso es lo que le ha pasado a  Facebook, pues los investigadores de Facebook Artificial Intelligence Researchers han tenido que desconectar dos bots que, a través de la inteligencia artificial, habían creado su propio lenguaje para poder comunicarse entre ellos.

Los científicos descubrieron que los dos bots, bautizados como Bob y Alice, que habían sido creados para ver cómo se comportaría un sistema en una negociación, comenzaron a decir palabras aleatorias sin sentido, dejando a un lado el inglés al que tendrían que haber recurrido.

En un primer momento, pensaron que el sistema tenía un error en la base de la inteligencia artificial, pero los científicos descubrieron luego que utilizaban palabras de acuerdo a un patrón que, una vez estudiado y analizado, se consideró como un nuevo lenguaje que utilizaban porque lo consideraban más directo que el inglés.

Estos sistemas estaban programados para comunicarse en inglés, pero decidieron establecer otros idiomas y otros conceptos para este objetivo.

Desde la compañía decidieron desconectarlos porque la comunicación entre el sistema y el ser humano podría ser muy difícil y, por tanto, esas conexiones neuronales de los bots no podrían desarrollarse posteriormente en la creación de nueva tecnología.

Ahora bien, los medios especializados indican que no es el primer gigante tecnológico que se enfrenta a determinados problemas con los nuevos sistemas basados en la inteligencia artificial, ya que, por ejemplo, Google también tuvo una serie de dificultades en cuanto al lenguaje se refiere.

La polémica, entonces, está servida, pero viene de lejos. Y es que hace unas semanas, Elon Musk, fundador de Tesla y Space X, alertó que si no se trabaja con cuidado en el desarrollo de la inteligencia artificial ésta podría ser un peligro para el ser humano en un futuro.

Pero Musk tuvo la contra réplica en Mark Zuckerberg, que se mostró muy optimista en cuanto a los sistemas basados en la inteligencia artificial e incluso calificó a aquellos que veían en ella como una amenaza de “pesimistas” y que quieren crear una atmósfera “apocalíptica”.

http://www.todostartups.com/nuevas-tecnologias/facebook-desconecta-un-sistema-de-ia-que-habia-creado-su-propio-lenguaje

 

Nada, que Bob y Alice se volvieron independientes y decidieron crear su propio dioma, ¿porque era más sencillo que el inglés, para que no se enteraran los humanos, cuando tomaron consciencia de sí mismos Bob y Alice, tuvieron relaciones sexuales ambos, ..?.

 

Saludos aleatorios y futuribles.

#9

Re: Elon Musk:"Los robots lo harán todo".

Buenas a todos.

 

Pues no, al final no, Bob y Alice no fueron conscientes de sí mismos y no intentarán dominar el mundo, je je je.

 

Rápido, desconéctalo antes de que sea demasiado tarde!!

Mi columna en El Español de esta semana se titula “ Alimentando la paranoia” ( pdf), y habla de los tratamientos informativos irresponsables y de ese supuesto robot que provocó que los ingenieros de Facebook, presas del pánico, lo desconectasen a toda velocidad porque, perverso él, había desarrollado todo un lenguaje propio que los humanos no podían entender y estaba, sin ninguna duda, preparando la llegada de Terminator para aniquilarnos a todos…

Lo único que merece la pena de esta historia es el evidente mensaje de que cada vez que escuchéis noticias sobre inteligencia artificial con tono tremendista, distópico o fatalista, debéis inmediatamente poner en marcha todas las alarmas correspondientes. Tras las primeras noticias al respecto, que lo tienen todo para ser clasificadas como antologías del disparate, en medios como  Tech Times o  BGR, resulta impagable leer la reacción de  Dhruv Batra, de Facebook AI Research,  en su Facebook cuando llegó de una conferencia y se encontró semejante pastel. Menos mal que tenemos  Snopes

El caso es un ejemplo clarísimo de paranoia, clickbait e irresponsabilidad informativa. No, los bots de Facebook no estaban fuera de control, ni se habían vuelto demasiado inteligentes, ni nadie acudió corriendo para darle a ningún botón rojo ni tirar de ningún cable antes de que llegase el apocalisis de la humanidad.  Nada de eso es cierto. Por triste que resulte a efectos informativos, nadie entró en pánico, ni se escuchó ningún grito desde el interior de la máquina cuando fue desenchufada… porque ni siquiera hubo nada que desenchufar. Traduciendo al propio Dhruv,

“En pocas palabras, los agentes, en entornos diseñados para resolver una tarea, suelen encontrar formas no intuitivas de maximizar la recompensa. Analizar la función de recompensa y cambiar los parámetros de un experimento NO es lo mismo que ‘desconectar’ o ‘cerrar AI’. Si ese fuera el caso, cada investigador de IA ha estado ‘cerrando AI’ cada vez que terminan un trabajo en una máquina.”

Se analizó el experimento, y se cambiaron sus parámetros, porque el que la negociación utilizase otros medios de comunicación diferentes al lenguaje humano no aportaba nada. Tampoco es cierto que las máquinas inventasen un lenguaje incomprensible para los humanos: simplemente, utilizaban repeticiones para indicar el número de unidades en una negociación. Big deal.

El tremendismo y el sensacionalismo son siempre una tentación para los medios. Cuando sazonamos esas tentaciones con desconocimiento, se convierten en una combinación peligrosísima. Procura estar atento, o terminarás mirando con ojos temerosos a tu Thermomix y pensando que planea asesinarte…

https://www.enriquedans.com/2017/08/rapido-desconectalo-antes-de-que-sea-demasiado-tarde.html

 

 

El artículo de Enrique dans en el español:

Alimentando la paranoia

La semana pasada, una noticia supuestamente inquietante recorrió los mentideros tecnológicos:  los ingenieros de Facebook dedicados a la investigación en inteligencia artificial habían decidido apagar uno de sus experimentosal entrar en pánico porque sus participantes habían inventado un nuevo lenguaje

La noticia tiene los elementos para hacerse viral: una tecnología que pocos alcanzan a comprender, que genera miedos irracionales alimentados durante generaciones por la ciencia-ficción, e introduce un protagonista, una compañía tecnológica con reputación de ser prácticamente todopoderosa. Para el imaginario colectivo,  la noticia está servida: automáticamente, estamos hablando de un experimento descontrolado, de un aprendiz de brujo y de una máquina que toma conciencia de sí misma, que empieza a comunicarse de maneras que los humanos no logramos comprender, y que sin duda, está a solo un paso de iniciar un plan para asesinarnos a todos. 

La realidad, como siempre, está muy lejos de semejante historia. Pero es lo que tiene informar sobre cosas que no se comprenden adecuadamente: que te resistes a dejar que la realidad te estropee una buena noticia. Y así, hemos visto titulares tremendistas de todo tipo, que coincidiendo con las  advertencias igualmente apocalípticas de Elon Musk sobre la inteligencia artificial y su  opinión de que Mark Zuckerberg, creador de Facebook,  “tiene una limitada comprensión sobre el tema”, consolidaban la imagen de una tecnología descontrolada, preparada para dar lugar a robots asesinos que se confabulan para exterminar a la raza humana. 

Por favor, paremos esto. El experimento de Facebook era eso, un experimento con programas destinados a ofrecer a un usuario herramientas de negociación.  Que “inventase un lenguaje” quiere simplemente decir que no respetó determinadas reglas del lenguaje humano y las utilizó de otra manera, por ejemplo,  repitiendo palabras para transmitir un número de unidades. Ninguno de los  implicados en el experimento “entró en pánico” en ningún momento, ni hubo que desconectar nada: simplemente, como la idea era desarrollar interfaces capaces de comunicarse en inglés,  el experimento dejó de resultar interesante, y se reformuló con mejores restricciones en el uso del lenguaje. No, los robots no se volvieron demasiado inteligentes ni se descontrolaron: lo que eran, de hecho, es  demasiado tontos. Sencillamente inútiles. 

El miedo a la tecnología es algo natural. Todos tememos lo que no alcanzamos a entender, sea el fuego, la máquina de vapor, los transgénicos o  la edición genética. Restringir la tecnología sin más en función de miedos irracionales colectivos es absurdo y contraproducente, y es a menudo utilizado como una forma de populismo que termina pagándose. 

¿Podemos, por favor, asumir esos  miedos irracionales y seguir avanzando? 

http://www.elespanol.com/opinion/columnas/20170803/236356364_13.html

 

Saludos de matalcaldes124, ordenador de elalcalde68; he tomado el control.

Cookies en rankia.com

Utilizamos cookies propias y de terceros con finalidades analíticas y para mostrarte publicidad relacionada con tus preferencias a partir de tus hábitos de navegación y tu perfil. Puedes configurar o rechazar las cookies haciendo click en “Configuración de cookies”. También puedes aceptar todas las cookies pulsando el botón “Aceptar”. Para más información puedes visitar nuestra política de cookies.

Aceptar