Acceder

No confíes en la IA por 20 años

No lo digo por clickbait, ni tampoco por las razones usuales, ni tampoco las razones por las que crees que lo digo, sino razones técnicas.

Cuando entiendes la mecánica de una máquina, sin ser un erudito, puedes terminar advirtiendo algunos elementos de su funcionamiento.  ¿Por donde empezamos? Por entender la mecánica de su funcionamiento.

Entendiendo las fuentes de error


Una IA es una calculadora que usa estadística y cálculo para entregar resultados no lineales, y como la no linealidad da apariencia de inteligencia, entonces parece muy inteligente. La IA como calculadora, encima es rápida, igual que las calculadoras de bolsillo. Si compites contra una calculadora de bolsillo, vas a perder. Pero velocidad no es inteligencia.

Como la estadística no es intuitiva, y el cálculo nos entrega no linealidad, el cerebro humano no va a poder predecir con facilidad lo que la calculadora va a entregar.  Como usa estadística, es susceptible a todos los problemas de la estadística, como por ejemplo la paradoja de Simpson. Entonces ya tienes fallos intrínsecos de diseño que no son fácilmente detectables y que llevan a verdaderos adefesios estadísticos.

¿Y el resultado que entrega, el output? Si vemos a la IA como caja negra, veremos que toma un gráfico de barras como entrada, y entrega un gráfico de barras como salida. y con base en esos outputs es que toma decisiones.  Entonces si hoy la IA te recomendaba una carne española y mañana una cerveza alemana, eso fue porque los datos más recientes de entrada, cambiaron las barras de salida y entonces te recomienda una cosa o la otra.  Entonces si tienes un problema, y no crees que usar un gráfico de barras sea lo apropiado, entonces mejor no uses una IA.  Con el tiempo aprenderás a distinguir esos problemas.

Una IA es la suma de una red neuronal compuestas por fórmulas matemáticas y datos del mundo real. A diferencia del software convencional que tiene su código pre-escrito y sólo se dedica a procesar datos con ciertos criterios aportados por el programador, la red neuronal y los datos son el código de programa. Esto cambia radicalmente la comprensión que deberías tener de la tecnología, porque al aportar datos, también estás programando la IA.  Es como que te pongan en un asiento de la empresa a programar la IA.  Si te suena muy extraño, es porque así es.

Ninguna de las empresas de IA te va a hablar de las debilidades del producto. Así que la gente, las empresas y los políticos se van a ir dando cuenta cuando las cosas les empiecen a salir mal, muy mal.  Y no va a ser de la manera en que Elon Musk nos lo presenta.  Pues recuerda que él está interesado en que su tecnología triunfe, y va a querer alimentar el "hype", la exuberancia irracional en favor de la IA.  No tengo nada contra Musk ni a favor de Musk, simplemente será juez y parte en este jaleo.

Lo que si vale destacar es que Musk denuncia que a la IA le están enseñando a mentir.

VIDEO: They’re training the AI to ‘lie’: Elon Musk
Para hacer que la IA mienta, hay que volverla idiota.  Es que inteligencia y control son dos conceptos que van en direcciones opuestas, y una IA inteligente no se puede controlar.  Lo que va a resultar de esa iditización de la IA, es que eso va a disparar por la culata.

Los mitos del IA volviéndose un oráculo


El problema de fondo, además de los ya mencionados, es que todo software tiene positivos, negativos, falsos positivos y falsos negativos. Pero con la IA y sus conductas poco o nada intuitivas, encontrar esos falsos positivos y negativos es tarea titánica, por las razones que ya he mencionado.  

Veremos la popularización de mitos, como parte del hype, que nos presentará a la IA como un oráculo o como algo que va a revolucionar todo. Pero recordamos que la IA es la suma de una red neuronal y unos datos. Si una IA sólo es entrenada para dibujar cuadrados, sólo sabrá dibujar cuadrados. Si le enseñas Van Gogh, sólo podrá dibujar cuadrados estilo Van Gogh. Entiendes entonces que una IA es una remezcladora de contenidos, no puede improvisar, y tampoco puede ser creativa.

Sabiendo todo esto podrás tomar mejores decisiones con tu dinero o con tu vida o con tu trabajo.

Validar resultados de la IA


Ahora que ya entiendes la mecánica de las IA, hablemos del mundo. Yo no estoy ni a favor ni en contra de la IA. Es una calculadora, con problemas y ventajas y todo, pero es una calculadora.  Como buena calculadora, debería arrojar números dentro de un rango. Y ahí es donde intervienes tú.  

Si diseñas cohetes y quieres calcular cuanto combustible necesitarás para llegar a otro planeta, probablemente deberás lidiar con cálculos de energía potencial y energía cinética como punto de partida. Con las variables que tienes, sabes más o menos los rangos dentro de los cuales deberías obtener un resultado.

 Si los datos están próximos al resultado, sabes que probablemente no te equivocaste.  Ese tipo de cálculos son los que los profesionales aeroespaciales llevan a cabo.  Pero no sólo ellos lo hacen. 

Si tienes a un encargado de planificar la producción, y se equivoca en los cálculos, puede inundar la bodega de materia prima que se va a deteriorar, o va a tener la fábrica parada medio mes por calcular mal.  Entonces esta validación de resultados es muy importante para muchos empleos, como puedes ver.  Con la IA y sus outputs, esa tarea se vuelve aún más crítica.  Si no eres capaz de validar los resultados de una IA probablemente puedes perder tu empleo como lo han perdido los que se equivocaron en los casos mencionados anteriormente.

Los problemas de las IAs


Con la IA nos reiremos de las élites. Ya viste que en estos años anteriores el software ha servido para cumplir un rol invasivo en la privacidad de la gente y se la llegado a la censura descarada. Y probablemente cuentan que con la IA vamos a tener vigilantes inteligentes para atormentarnos aún más. Pues no. Al poner a la IA a funcionar, lo que están haciendo es que nos dan el poder de programar su sistema con los datos que nosotros le damos.  Y cuando se den cuenta eso va a ser una fiesta.

Normalmente van a tratar de hacer lo que siempre hacen, cada vez que hay un invento, usarlo para destruir, para la guerra. Y ahí nos vamos a reir más. Seguro te has creído aquello de la ciencia ficción de la IA que se vuelve contra su amo. En realidad no es así, la IA no se vuelve contra su amo. Lo que sucede es que si usas una máquina como no se debe usar, vas a terminar con problemas. Ya en 2003 iban a presentar a un robot con IA en una demostración militar. Si no hubiera sido por un soldado alerta que se lanzó sobre el robot y lo volcó, habríamos visto 200 muertos entre los asistentes a la demostración. Es que eso de poner a un gráfico de barras a decidir quién es amigo o enemigo es una cosa rídicula.  Se van a gastar un pastón en eso y no van a poder adaptar una solución de grafico de barras a una zona de combate donde el engaño es la base de la guerra.

¿Sabes por qué todavía no tenemos coches autónomos? Imagina una IA que sabe ver cielo, camino y coches. Un día se atraviesa un contenedor blanco de un camión volcado en la autopista. ¿A qué se parece más? ¿Al cielo, al camino o a los coches?  Obviamente se parece más al cielo, y entones la IA atravesará el contenedor como si fuera el cielo y verás un choque espectacular. Entonces los autores de la IA deben empezar a ver todas las cosas raras que pueden pasar en la calle, en el mundo real.  Pero cuando ya crees que lo sabes todo, el universo siempre tiene algo nuevo que no habías previsto, y esa es la gracia de la ciencia, que a cada rato nos muestra que lo que creíamos no era, y por eso es que la ciencia aún no puede decir que lo sabe todo.  Imagínate. Y con la IA tienes una situación similar, donde siempre habrá cosas más y más raras en el mundo real.

Los masters del hype y sus pupilos influencers, seguro querrán decirte que la IA de conducción autónoma de BYD es peor que la de Tesla y que por eso los coches eléctricos chinos están condenados.  Y quizás sea verdad que la IA de BYD sea peor. Pero eso es irrelevante. ¿Le confiarías tu vida a alguna de las dos?  Estamos comparando dos productos que están en I+D, y no un producto terminado. Nunca va a estar terminado. Pero en la verborrea de influencer, los coches chinos están acabados. Y habrá otros influencers que dirán que Tesla está acabada, porque el gobierno chino ve en Tesla un intento de hegemonía tecnológica.  Y quizás tengan razón o quizás no, pero esas ya son peleas mezquinas entre partes que no nos interesa.  Lo que nos interesa es que a ti no te importa los bandos.  BYD o Tesla, el gobierno chino o Tesla. Si tanta es la controversia, mejor una bicicleta para que nos dejen en paz.  Es que antes te molestaban para convencerte que Rusia es el malo o que China es el malo o que Trump era el malo o que Joe Biden era el malo. Puro marketing de la atención. Y ahora van a empezar a molestarnos con spam de la IA y de sus usos y aplicaciones.  ¿Es que no pueden dejar de molestar a los simples mortales?

Y el caso de los coches es un caso salvable, porque los datos se alimentan de sensores que transmiten objetivamente la información a la IA. Pero a como pones usuarios a alimentar una IA, y dado que el usuario también es programador de la IA, las posibilidades de problemas son infinitas. Si odiabas tener que interactuar y entender a la gente, antes el trabajo de programador era el mejor. Pero si trabajas en una empresa de IA, van a ser los humanos la fuente de tu dolor de cabeza.

¿El futuro?


Nos anuncian que el futuro es ser prompt engineer. O sea, alguien que escribe texto. ¿De verdad? O sea que nadie va a usar esos prompts para automatizar a los prompt engineers?

¿Y por qué digo que no confíes en la IA por 20 años?  Si tomamos ciclos largos de I+D y miramos la IA, veremos que esto que vemos es en realidad un proceso largo de I+D que suele durar como 20 años. Estamos siendo parte de un experimento y tu le estás ayudando con su I+D.  Algunas IA no serán tan inteligentes y eso lo descubrirás. Y otras serán muy complejas y poco comprendidas por sus propios creadores.  Eres parte de un experimento de I+D, no es un producto terminado, y no puedes confiar en un producto que no está terminado y donde eres parte de experimentos.

El futuro no es lo que te anuncian. No va a ser lo que los youtuberos, con ganas de hacer clickbait con el hype, te digan.  Es que cuando sale una novedad, todo el mundo quiere ser experto.

Si me preguntas por la experiencia de usar una IA, va a ser como cuando el piloto del avión quedó incapacitado, y eres un pasajero al que ponen a pilotear un avión para el que no tuviste entrenamiento. Sabemos de casos de pilotos experimentados donde`por desatención o porque nadie les dijo, el avión termina arrebatando el control y estrella el avión. Eso es lo que podrías ver con falsos positivos y negativos.

Es decir, con la IA tienes una máquina que los creadores apenas entienden, para el que no hay manuales, y que funciona muy bien hasta que deja de funcionar, por aquel problema de falsos positivos y negativos. A diferencia del software común, que te dice "error" o "algo salió mal", la IA te dará un resultado y vas por tu cuenta y riesgo si lo usas.

Si se trata de cosas donde no depende algo crítico como tu vida o tu empleo, te salvas, pero si no, no deberías confiar en la IA. El problema de fondo es que no hay una frontera clara entre la zona de error y la zona donde funciona. Sus fallos van a ser impredecibles y sorpresivos, y nada intuitivos.  Entonces es una máquina que funciona bien hasta que no lo hace, y no te avisa nada.

No es como en el scifi donde la máquina se vuelca contra su amo. Es que un sistema diseñado para fallar, fallará.  Y mientras más complicada la IA, más problemas tendrán los creadores para corregir esos fallos.

El aprendizaje supervisado de una IA tiene a un humano curando datos y asignando etiquetas para que la IA pueda clasificar. Pero las empresas vagas en algún momento van a poner a la IA a aprener clasificando de manera automatizada. Y eso va a ser otro festín de palomitas de maíz.

Tenamos años con la promesa de que los coches autónomos estarán en nuestras calles, y sabemos que ese día no va a llegar.  Y si llega será con muchos accidentes. Con el resto de las IA probablemente habrá problemas similares. ¿Que la IA va a trastocar a la civilización?  Pues si las empresas se dejan embaucar en el hype, pues sí. Pero eso es por acciones humanas. La IA va a empezar a mostrar toda clase de problemas, y a las big tech no les conviene que te enteres. Pero tanto va el cántaro al agua que se rompe.

Como la IA trabaja con palabras, tengo la impresion de que tarde o temprano la IA los va a meter en problemas legales serios y de corte masivo. tener una empresa de IA puede ser una actividad peligrosa. Y usar la IA sin validar resultados es una actividad muy riesgosa también.

El futuro sólo Dios lo conoce, y no puedo predecirlo. Pero sí podemos anticipar que lo que está diseñado para fallar, fallará. Y cuando los fallos se desaten, eso va a ser una fiesta.

Si me preguntas, el internet se volvió aburrido. Todo es política y spam sobre la IA y un monton de podcasts de influencers en interiores, sin alto valor de producción, sin entretenimiento. No es como aquella época del año 2000 donde Internet tenía de todo. Y seguro querrán desaburrirte con las nuevas profecías del fin del mundo, ya sea políticas o tecnológicas.  Ya sabes, lo de siempre.

China generalmente lleva mucho avanzado en los planes de distopía de las élites mundiales, por delante de nosotros.  Hoy en día ante la escasez de empleo muchos se han lanzado a ser influencers. Y como ser influencer de interiores está gastado, hacen sacrificios para hacer streaming en exteriores. Millones de streamers en la calle, por hambre.

VIDEO: Shocking! 46 Million Become Influencers As Half of Northeast China’s Population, No More Jobs!

Si te quedas en Internet eso no te va a llenar de felicidad como sucedía en el año 2000.

Así que creo que esta era de la IA es una buena ocasión para redescubrir la libertad de estar desconectado de todo aparato. Vivir fuera de línea te podría salvar de algunos de los problemas que se vienen.  Y es una buena ocasión para redescubrir nuestra humanidad al hablar con las personas cara a cara.

Un buen juego de mesa como excusa para reunir familia y amigos, un cafecito de sobremesa, volver a redescubrir esos placeres de antaño cuando no había internet. Otros podrán decidir distinto, cada quien a su gusto. Y para algunos desconectarse no será opción, así que lo mejor será no perder nuestra humanidad y compasión.
4
¿Te ha gustado el artículo?

Si quieres saber más y estar al día de mis reflexiones, suscríbete a mi blog y sé el primero en recibir las nuevas publicaciones en tu correo electrónico.

  1. en respuesta a Packo33
    -
    Top 100
    #4
    17/04/23 17:54
    Elon Musk dice que los programadores con inclinaciones políticas estan enseñando a la IA a mentir.  Eso es malo para la IA, porque la IA no distingue a quien le miente. Y asi los desinformadores serán desinformados.  Además la credibilidad no es algo facil de reparar. Una vez que sabes que la IA miente, no vas a buscar respuestas allí.  Y si se trata de IA mentirosa como asesor de guerra, va a tener las mentiras contaminando los planes estratégicos.
  2. en respuesta a Packo33
    -
    #3
    17/04/23 17:34
    En eso llevas toda la razón, en el fondo todo es un negocio, pero bueno es lo que se nos viene.
  3. en respuesta a Pedrogarcia
    -
    #2
    17/04/23 17:25
    El gran "problema" de la IA es que es tan confiable como una busqueda en Internet.

    Y recordemos que los primeros hits de cualquier buscador, son enlaces "patrocinados".
  4. #1
    14/04/23 15:09
    Es cierto que la IA presenta algunos desafíos y riesgos potenciales, pero también tiene un gran potencial para mejorar nuestras vidas. Es importante tener en cuenta que la IA en sí misma no es buena ni mala, es simplemente una herramienta que puede ser utilizada de diferentes maneras.

    Uno de los principales problemas con la IA es la privacidad y la seguridad de los datos. Con la cantidad de información que recopilan las IAs, existe un riesgo real de que los datos sean utilizados de manera indebida o se filtren. Por lo tanto, es importante establecer medidas de seguridad y privacidad sólidas para proteger los datos.

    Otro problema potencial es la falta de transparencia y explicabilidad de las decisiones tomadas por la IA. A medida que las IAs se vuelven más avanzadas, pueden tomar decisiones complejas que son difíciles de entender para los humanos. Esto puede ser un problema en áreas como la justicia o la toma de decisiones importantes.

    También hay preocupaciones sobre el impacto de la IA en el empleo. A medida que las IAs se vuelven más avanzadas, es posible que algunos trabajos sean automatizados, lo que podría tener un impacto negativo en la economía y en los trabajadores que dependen de esos empleos.

    En cuanto a la posibilidad de que la IA sea utilizada con fines militares, es importante que se establezcan regulaciones y límites claros en cuanto a su uso. Como mencionaste, la IA no es infalible y debe ser utilizada de manera responsable y ética.

    En resumen, aunque la IA presenta algunos problemas y riesgos, también tiene un gran potencial para mejorar nuestras vidas y resolver problemas importantes. Es importante abordar estos desafíos de manera responsable y ética para maximizar los beneficios de la IA y minimizar los riesgos