Acceder

Participaciones del usuario Dabulper

Dabulper 11/04/21 13:50
Ha comentado en el artículo Prediciendo grandes caídas del SP500
Entonces deduzco que tu red tiene dos salidas, una de tipo lineal para predecir el porcentaje (regresión lineal) y otra binaria para señalar "tortazos" mayores del 12% (decisión binaria). ¿Es así?Como dices que es una red neuronal de 3 capas (ocultas, intuyo) con activación RELU, debo suponer que es un MLP (Multi Layer Perceptron). ¿Qué optimizador incluirás? ¿Tienes decididos los números de neuronas de cada capa?¿Los datos (la parte más importante) los presentarás como valores estáticos de cada tiempo dado (datos cada día, o cada hora...) o como series temporales de esos datos en ventanas de datos ( datos de 5 días anteriores, o de 5 horas anteriores...)?¿Has planteado una ensemble de modelos o un modelo único?Perdona que sean tantas preguntas, pero para ubicarme en la idea de modelo que tienes en mente debo especificar muchos aspectos. Irán cayendo más preguntas.Si usas Keras (con tensorflow como backend) para entrenar el modelo, no tengo problema en ayudarte.
ir al comentario
Dabulper 10/04/21 12:26
Ha comentado en el artículo Prediciendo grandes caídas del SP500
Si no he entendido mal, pretendes entrenar un modelo neuronal (supongo que una red progresiva supervisada, feedforward network, o tal vez una LSTM) para generar una salida binaria que se ponga a 1 cuando haya condiciones de posible caída mayor que cierto porcentaje en el SP500, y dé salida 0 en caso contrario.¿Qué tipo de arquitectura de red vas a utilizar? ¿Qué rango histórico de datos planteas incluir en el entrenamiento?¿Qué protocolo de validación y test vas a implementar?No me consideres un novato en este campo, pues llevo más de 30 años trabajando con RNA.
ir al comentario
Dabulper 22/10/17 13:43
Ha comentado en el artículo La inteligencia artificial no es tan inteligente
Quizás el enlace que he puesto sea díficil para mucha gente. Este otro en plan noticia puede ser más aclarador: http://www.investigacionyciencia.es/noticias/las-cien-derrotas-de-alphago-15709 Como bien concluyen: "...una IA que por completo se entrena a sí misma es claramente más lista que una que además aprende de las estrategias humanas. Lo verdaderamente importante de este desarrollo no es, sin embargo, eso. El sistema de inteligencia artificial AlphaGo Zero puede, en principio, aprender por sí mismo cualquier cosa posible: ya no lo limita un problema u objetivo determinado." Yo objeto que tal sistema con autoaprendizaje estará sólo limitado por la capacidad que tengamos de simular y realizar una valoración del proceso, ya que la IA necesita analizar muchas posibles respuestas del proceso para aprender, y si no somos capaces de simularlo, eso no será posible. Otra opción es que múltiples agentes (por ejemplo coches autónomos) capturen datos para entrenar tal sistema (conducción autónoma). Pero eso implica tener muchos agentes en funcionamiento previamente. Respecto a la eficiencia energética del cerebro, no tardaremos mucho en dejarla atrás. No hay más que ver que el hardware mejora exponencialmente tanto en velocidad como en consumo.
ir al comentario
Dabulper 21/10/17 13:53
Ha comentado en el artículo La reserva federal (FED) imprime dinero y crea inflación …. es un mito !!!!
Por favor, cambia trillones por billones, la traducción de "trillions" en inglés se traduce a billones en español. Y lo de que el SP500 sube por los beneficios es cuestionable. El préstamo que la banca no da al ciudadano medio, sí que se lo da a las grandes corporaciones cotizadas, las cuales lo utilizan para la recompra de sus propias acciones. Es la única forma que han encontrado para inducir inflación en la bolsa.
ir al comentario
Dabulper 21/10/17 13:32
Ha comentado en el artículo La inteligencia artificial no es tan inteligente
Llevo trabajando en redes neuronales artificiales (RNA) desde los años 80. Y confirmo lo planteado en el artículo: la IA actual no tiene una inteligencia "humana" tal y como nos la imaginamos. Es otra cosa. Básicamente estamos alcanzando metas que los modelos adaptativos (aquí entran muchos modelos que no son RNA, pero también serían IA) no podían alcanzar hace 20 años porque la capacidad de cómputo no lo permitía. El cálculo paralelo masivo que han aportado las GPUs (graphic processing units), desarrolladas inicialmente para una industria del videojuego cada vez más exigente, ha despertado al gigante dormido. Ahora se ha despejado el camino para una segunda revolución de las RNA. El siguiente paso es la integración de estos modelos en sistemas más complejos que sí remedarán la inteligencia humana, e incluso la superarán. El proceso ha comenzado y será imparable, como muestra de ejemplo: https://www.nature.com/articles/nature24270.epdf?referrer_access_token=EtVDfUt9SqlM07ZlOyumXNRgN0jAjWel9jnR3ZoTv0PVW4gB86EEpGqTRDtpIz-22SehS6IfIWP6NGb0V5cWu5GSw1OmXIzlGgQOhXNzHHMPxmQuVcQWRzZHYYaEkYPgw24ivR5sNv5WiqTz-6iVQESP9ytDzz6NnwWCfOhvNAzQOiDLrNStiey8cut9i1WMzqckXmF0Fi6oaBLfGzTwUesM5uvMnDLxr2D7gZUTvyt-FmKq0GBqT-p0lfJ3lvfd&tracking_referrer=www.wired.co.uk Es necesario que se entienda que la explosión de soluciones de la IA que van a venir en pocos años van a ser tan radicales como la utilización de la energía eléctrica para iluminar calles. Pese a que se conocía la electricidad desde un siglo antes, bastó esta aplicación para que su uso se extendiera a muchas otras aplicaciones y cambiara el mundo para siempre.
ir al comentario
Dabulper 24/07/17 15:51
Ha comentado en el artículo Automatiza decisiones con Inteligencia Artificial en Excel (instructivo para novatos. Parte 1)
El video está bien, pero explica el comportamiento de dos modelos realimentados (Recurrent Neural Network y Long Short Term Memory), capaces de aprender a reconocer conceptos a partir de secuencias de datos. Los modelos que explicas en tu artículo son modelos progresivos (feedforward networks) que no introducen realimentación, por lo que sólo procesan unos datos de entrada en cada momento, sin establecer relaciones temporales con los datos presentados previamente. En ambos tipos de modelos, los datos son la clave. Existe la necesidad de datos no-contradictorios, ni sesgados. Casualmente se ha publicado este artículo que encaja perfectamente en la discusión: http://www.eldiario.es/cultura/tecnologia/servicio-trabajos-creara-Inteligencia-Artificial_0_667383671.html Interesante de leer.
ir al comentario
Dabulper 23/07/17 15:02
Ha comentado en el artículo Automatiza decisiones con Inteligencia Artificial en Excel (instructivo para novatos. Parte 1)
Enhorabuena por el artículo. Realmente la IA basada en redes neuronales artificiales (artificial neural networks) no es una disciplina tan compleja como parece, y has conseguido mostrar un ejemplo muy interesante. Lo bueno de las RNA es que aprenden una representación interna (pesos) que genera respuestas coherentes para entradas novedosas a partir de los datos usados en su entrenamiento. Ahí hay un punto débil, si los datos de entrenamiento no son lo suficientemente representativos del problema tratado, pueden dar lugar a respuestas muy erróneas. Sin embargo, conforme los modelos neuronales avanzan en complejidad, gracias al paralelismo procesador de las tarjetas gráficas, la necesidad de datos se vuelve perentoria. Aquellas plataformas que dispongan de datos serán las que lideren el cambio real. Sólo una corrección: la b proviene de "bias", que se traduce por "umbral".
ir al comentario
Dabulper 12/08/16 19:13
Ha comentado en el artículo Los planes para ir a Marte
Marte es sólo la etapa intermedia. El verdadero objetivo son los asteroides, llenos de riquezas minerales bien compactadas. Se irá a Marte porque es la etapa necesaria para alcanzarlos, y terraformizarlo es un sueño que tardará mucho más tiempo en concretarse.
ir al comentario