#rumelhart — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #rumelhart, aggregated by home.social.
-
Pequeños y grandes pasos hacia el imperio de la inteligencia artificial
Fuente: Open TechTraducción de la infografía:
- 1943 – McCullock y Pitts publican un artículo titulado Un cálculo lógico de ideas inmanentes en la actividad nerviosa, en el que proponen las bases para las redes neuronales.
- 1950 – Turing publica Computing Machinery and Intelligence, proponiendo el Test de Turing como forma de medir la capacidad de una máquina.
- 1951 – Marvin Minsky y Dean Edmonds construyen SNAR, la primera computadora de red neuronal.
- 1956 – Se celebra la Conferencia de Dartmouth (organizada por McCarthy, Minsky, Rochester y Shannon), que marca el nacimiento de la IA como campo de estudio.
- 1957 – Rosenblatt desarrolla el Perceptrón: la primera red neuronal artificial capaz de aprender.
(!!) Test de Turing: donde un evaluador humano entabla una conversación en lenguaje natural con una máquina y un humano.
- 1965 – Weizenbaum desarrolla ELIZA: un programa de procesamiento del lenguaje natural que simula una conversación.
- 1967 – Newell y Simon desarrollan el Solucionador General de Problemas (GPS), uno de los primeros programas de IA que demuestra una capacidad de resolución de problemas similar a la humana.
- 1974 – Comienza el primer invierno de la IA, marcado por una disminución de la financiación y del interés en la investigación en IA debido a expectativas poco realistas y a un progreso limitado.
- 1980 – Los sistemas expertos ganan popularidad y las empresas los utilizan para realizar previsiones financieras y diagnósticos médicos.
- 1986 – Hinton, Rumelhart y Williams publican Aprendizaje de representaciones mediante retropropagación de errores, que permite entrenar redes neuronales mucho más profundas.
(!!) Redes neuronales: modelos de aprendizaje automático que imitan el cerebro y aprenden a reconocer patrones y hacer predicciones a través de conexiones neuronales artificiales.
- 1997 – Deep Blue de IBM derrota al campeón mundial de ajedrez Kasparov, siendo la primera vez que una computadora vence a un campeón mundial en un juego complejo.
- 2002 – iRobot presenta Roomba, el primer robot aspirador doméstico producido en serie con un sistema de navegación impulsado por IA.
- 2011 – Watson de IBM derrota a dos ex campeones de Jeopardy!.
- 2012 – La startup de inteligencia artificial DeepMind desarrolla una red neuronal profunda que puede reconocer gatos en vídeos de YouTube.
- 2014 – Facebook crea DeepFace, un sistema de reconocimiento facial que puede reconocer rostros con una precisión casi humana.
(!!) DeepMind fue adquirida por Google en 2014 por 500 millones de dólares.
- 2015 – AlphaGo, desarrollado por DeepMind, derrota al campeón mundial Lee Sedol en el juego de Go.
- 2017 – AlphaZero de Google derrota a los mejores motores de ajedrez y shogi del mundo en una serie de partidas.
- 2020 – OpenAI lanza GPT-3, lo que marca un avance significativo en el procesamiento del lenguaje natural.
(!!) Procesamiento del lenguaje natural: enseña a las computadoras a comprender y utilizar el lenguaje humano mediante técnicas como el aprendizaje automático.
- 2021 – AlphaFold2 de DeepMind resuelve el problema del plegamiento de proteínas, allanando el camino para nuevos descubrimientos de fármacos y avances médicos.
- 2022 – Google despide al ingeniero Blake Lemoine por sus afirmaciones de que el modelo de lenguaje para aplicaciones de diálogo (LaMDA) de Google era sensible.
- 2023 – Artistas presentaron una demanda colectiva contra Stability AI, DeviantArt y Mid-journey por usar Stable Diffusion para remezclar las obras protegidas por derechos de autor de millones de artistas.
Gráfico: Open Tech / Genuine Impact
Entradas relacionadas
- ¿Cómo definir la «credibilidad algorítmica»? DeepSeek da en el clavo
- Los precios dinámicos exacerban la desigualdad entre los consumidores, hay que regularlos ya
- Firma contra la vigilancia biométrica masiva
#ajedrez #AlphaFold2 #AlphaGo #AlphaZero #aprendizajeAutomático #artículo #artistas #aspirador #BlakeLemoine #ConferenciaDeDartmouth #copyright #DeanEdmonds #DeepBlue #DeepFace #DeepMind #DeviantArt #ELIZA #Facebook #gatos #GenuineImpact #Go #Google #GPS #GPT3 #gráfico #Hinton #IA #IBM #infografía #inteligenciaArtificial #iRobot #Jeopardy_ #Kasparov #LaMDA #LeeSedol #MarvinMinsky #McCarthy #McCullock #MidJourney #modelos #Newell #OpenTech #OpenAI #patrones #Perceptron #Pitts #plegamientoDeProteínas #predicciones #procesamientoDelLenguajeNatural #reconocimientoFacial #redesNeuronales #remezclar #robot #Rochester #Roomba #Rosenblatt #Rumelhart #Shannon #shogi #Simon #sistemaDeNavegación #SNAR #StabilityAI #StableDiffusion #testDeTuring #Turing #vídeos #Watson #Weizenbaum #Williams #YouTube
-
Pequeños y grandes pasos hacia el imperio de la inteligencia artificial
Fuente: Open TechTraducción de la infografía:
- 1943 – McCullock y Pitts publican un artículo titulado Un cálculo lógico de ideas inmanentes en la actividad nerviosa, en el que proponen las bases para las redes neuronales.
- 1950 – Turing publica Computing Machinery and Intelligence, proponiendo el Test de Turing como forma de medir la capacidad de una máquina.
- 1951 – Marvin Minsky y Dean Edmonds construyen SNAR, la primera computadora de red neuronal.
- 1956 – Se celebra la Conferencia de Dartmouth (organizada por McCarthy, Minsky, Rochester y Shannon), que marca el nacimiento de la IA como campo de estudio.
- 1957 – Rosenblatt desarrolla el Perceptrón: la primera red neuronal artificial capaz de aprender.
(!!) Test de Turing: donde un evaluador humano entabla una conversación en lenguaje natural con una máquina y un humano.
- 1965 – Weizenbaum desarrolla ELIZA: un programa de procesamiento del lenguaje natural que simula una conversación.
- 1967 – Newell y Simon desarrollan el Solucionador General de Problemas (GPS), uno de los primeros programas de IA que demuestra una capacidad de resolución de problemas similar a la humana.
- 1974 – Comienza el primer invierno de la IA, marcado por una disminución de la financiación y del interés en la investigación en IA debido a expectativas poco realistas y a un progreso limitado.
- 1980 – Los sistemas expertos ganan popularidad y las empresas los utilizan para realizar previsiones financieras y diagnósticos médicos.
- 1986 – Hinton, Rumelhart y Williams publican Aprendizaje de representaciones mediante retropropagación de errores, que permite entrenar redes neuronales mucho más profundas.
(!!) Redes neuronales: modelos de aprendizaje automático que imitan el cerebro y aprenden a reconocer patrones y hacer predicciones a través de conexiones neuronales artificiales.
- 1997 – Deep Blue de IBM derrota al campeón mundial de ajedrez Kasparov, siendo la primera vez que una computadora vence a un campeón mundial en un juego complejo.
- 2002 – iRobot presenta Roomba, el primer robot aspirador doméstico producido en serie con un sistema de navegación impulsado por IA.
- 2011 – Watson de IBM derrota a dos ex campeones de Jeopardy!.
- 2012 – La startup de inteligencia artificial DeepMind desarrolla una red neuronal profunda que puede reconocer gatos en vídeos de YouTube.
- 2014 – Facebook crea DeepFace, un sistema de reconocimiento facial que puede reconocer rostros con una precisión casi humana.
(!!) DeepMind fue adquirida por Google en 2014 por 500 millones de dólares.
- 2015 – AlphaGo, desarrollado por DeepMind, derrota al campeón mundial Lee Sedol en el juego de Go.
- 2017 – AlphaZero de Google derrota a los mejores motores de ajedrez y shogi del mundo en una serie de partidas.
- 2020 – OpenAI lanza GPT-3, lo que marca un avance significativo en el procesamiento del lenguaje natural.
(!!) Procesamiento del lenguaje natural: enseña a las computadoras a comprender y utilizar el lenguaje humano mediante técnicas como el aprendizaje automático.
- 2021 – AlphaFold2 de DeepMind resuelve el problema del plegamiento de proteínas, allanando el camino para nuevos descubrimientos de fármacos y avances médicos.
- 2022 – Google despide al ingeniero Blake Lemoine por sus afirmaciones de que el modelo de lenguaje para aplicaciones de diálogo (LaMDA) de Google era sensible.
- 2023 – Artistas presentaron una demanda colectiva contra Stability AI, DeviantArt y Mid-journey por usar Stable Diffusion para remezclar las obras protegidas por derechos de autor de millones de artistas.
Gráfico: Open Tech / Genuine Impact
Entradas relacionadas
- ¿Cómo definir la «credibilidad algorítmica»? DeepSeek da en el clavo
- Los precios dinámicos exacerban la desigualdad entre los consumidores, hay que regularlos ya
- Firma contra la vigilancia biométrica masiva
#ajedrez #AlphaFold2 #AlphaGo #AlphaZero #aprendizajeAutomático #artículo #artistas #aspirador #BlakeLemoine #ConferenciaDeDartmouth #copyright #DeanEdmonds #DeepBlue #DeepFace #DeepMind #DeviantArt #ELIZA #Facebook #gatos #GenuineImpact #Go #Google #GPS #GPT3 #gráfico #Hinton #IA #IBM #infografía #inteligenciaArtificial #iRobot #Jeopardy_ #Kasparov #LaMDA #LeeSedol #MarvinMinsky #McCarthy #McCullock #MidJourney #modelos #Newell #OpenTech #OpenAI #patrones #Perceptron #Pitts #plegamientoDeProteínas #predicciones #procesamientoDelLenguajeNatural #reconocimientoFacial #redesNeuronales #remezclar #robot #Rochester #Roomba #Rosenblatt #Rumelhart #Shannon #shogi #Simon #sistemaDeNavegación #SNAR #StabilityAI #StableDiffusion #testDeTuring #Turing #vídeos #Watson #Weizenbaum #Williams #YouTube
-
Pequeños y grandes pasos hacia el imperio de la inteligencia artificial
Fuente: Open TechTraducción de la infografía:
- 1943 – McCullock y Pitts publican un artículo titulado Un cálculo lógico de ideas inmanentes en la actividad nerviosa, en el que proponen las bases para las redes neuronales.
- 1950 – Turing publica Computing Machinery and Intelligence, proponiendo el Test de Turing como forma de medir la capacidad de una máquina.
- 1951 – Marvin Minsky y Dean Edmonds construyen SNAR, la primera computadora de red neuronal.
- 1956 – Se celebra la Conferencia de Dartmouth (organizada por McCarthy, Minsky, Rochester y Shannon), que marca el nacimiento de la IA como campo de estudio.
- 1957 – Rosenblatt desarrolla el Perceptrón: la primera red neuronal artificial capaz de aprender.
(!!) Test de Turing: donde un evaluador humano entabla una conversación en lenguaje natural con una máquina y un humano.
- 1965 – Weizenbaum desarrolla ELIZA: un programa de procesamiento del lenguaje natural que simula una conversación.
- 1967 – Newell y Simon desarrollan el Solucionador General de Problemas (GPS), uno de los primeros programas de IA que demuestra una capacidad de resolución de problemas similar a la humana.
- 1974 – Comienza el primer invierno de la IA, marcado por una disminución de la financiación y del interés en la investigación en IA debido a expectativas poco realistas y a un progreso limitado.
- 1980 – Los sistemas expertos ganan popularidad y las empresas los utilizan para realizar previsiones financieras y diagnósticos médicos.
- 1986 – Hinton, Rumelhart y Williams publican Aprendizaje de representaciones mediante retropropagación de errores, que permite entrenar redes neuronales mucho más profundas.
(!!) Redes neuronales: modelos de aprendizaje automático que imitan el cerebro y aprenden a reconocer patrones y hacer predicciones a través de conexiones neuronales artificiales.
- 1997 – Deep Blue de IBM derrota al campeón mundial de ajedrez Kasparov, siendo la primera vez que una computadora vence a un campeón mundial en un juego complejo.
- 2002 – iRobot presenta Roomba, el primer robot aspirador doméstico producido en serie con un sistema de navegación impulsado por IA.
- 2011 – Watson de IBM derrota a dos ex campeones de Jeopardy!.
- 2012 – La startup de inteligencia artificial DeepMind desarrolla una red neuronal profunda que puede reconocer gatos en vídeos de YouTube.
- 2014 – Facebook crea DeepFace, un sistema de reconocimiento facial que puede reconocer rostros con una precisión casi humana.
(!!) DeepMind fue adquirida por Google en 2014 por 500 millones de dólares.
- 2015 – AlphaGo, desarrollado por DeepMind, derrota al campeón mundial Lee Sedol en el juego de Go.
- 2017 – AlphaZero de Google derrota a los mejores motores de ajedrez y shogi del mundo en una serie de partidas.
- 2020 – OpenAI lanza GPT-3, lo que marca un avance significativo en el procesamiento del lenguaje natural.
(!!) Procesamiento del lenguaje natural: enseña a las computadoras a comprender y utilizar el lenguaje humano mediante técnicas como el aprendizaje automático.
- 2021 – AlphaFold2 de DeepMind resuelve el problema del plegamiento de proteínas, allanando el camino para nuevos descubrimientos de fármacos y avances médicos.
- 2022 – Google despide al ingeniero Blake Lemoine por sus afirmaciones de que el modelo de lenguaje para aplicaciones de diálogo (LaMDA) de Google era sensible.
- 2023 – Artistas presentaron una demanda colectiva contra Stability AI, DeviantArt y Mid-journey por usar Stable Diffusion para remezclar las obras protegidas por derechos de autor de millones de artistas.
Gráfico: Open Tech / Genuine Impact
Entradas relacionadas
- ¿Cómo definir la «credibilidad algorítmica»? DeepSeek da en el clavo
- Los precios dinámicos exacerban la desigualdad entre los consumidores, hay que regularlos ya
- Firma contra la vigilancia biométrica masiva
#ajedrez #AlphaFold2 #AlphaGo #AlphaZero #aprendizajeAutomático #artículo #artistas #aspirador #BlakeLemoine #ConferenciaDeDartmouth #copyright #DeanEdmonds #DeepBlue #DeepFace #DeepMind #DeviantArt #ELIZA #Facebook #gatos #GenuineImpact #Go #Google #GPS #GPT3 #gráfico #Hinton #IA #IBM #infografía #inteligenciaArtificial #iRobot #Jeopardy_ #Kasparov #LaMDA #LeeSedol #MarvinMinsky #McCarthy #McCullock #MidJourney #modelos #Newell #OpenTech #OpenAI #patrones #Perceptron #Pitts #plegamientoDeProteínas #predicciones #procesamientoDelLenguajeNatural #reconocimientoFacial #redesNeuronales #remezclar #robot #Rochester #Roomba #Rosenblatt #Rumelhart #Shannon #shogi #Simon #sistemaDeNavegación #SNAR #StabilityAI #StableDiffusion #testDeTuring #Turing #vídeos #Watson #Weizenbaum #Williams #YouTube
-
Pequeños y grandes pasos hacia el imperio de la inteligencia artificial
Fuente: Open TechTraducción de la infografía:
- 1943 – McCullock y Pitts publican un artículo titulado Un cálculo lógico de ideas inmanentes en la actividad nerviosa, en el que proponen las bases para las redes neuronales.
- 1950 – Turing publica Computing Machinery and Intelligence, proponiendo el Test de Turing como forma de medir la capacidad de una máquina.
- 1951 – Marvin Minsky y Dean Edmonds construyen SNAR, la primera computadora de red neuronal.
- 1956 – Se celebra la Conferencia de Dartmouth (organizada por McCarthy, Minsky, Rochester y Shannon), que marca el nacimiento de la IA como campo de estudio.
- 1957 – Rosenblatt desarrolla el Perceptrón: la primera red neuronal artificial capaz de aprender.
(!!) Test de Turing: donde un evaluador humano entabla una conversación en lenguaje natural con una máquina y un humano.
- 1965 – Weizenbaum desarrolla ELIZA: un programa de procesamiento del lenguaje natural que simula una conversación.
- 1967 – Newell y Simon desarrollan el Solucionador General de Problemas (GPS), uno de los primeros programas de IA que demuestra una capacidad de resolución de problemas similar a la humana.
- 1974 – Comienza el primer invierno de la IA, marcado por una disminución de la financiación y del interés en la investigación en IA debido a expectativas poco realistas y a un progreso limitado.
- 1980 – Los sistemas expertos ganan popularidad y las empresas los utilizan para realizar previsiones financieras y diagnósticos médicos.
- 1986 – Hinton, Rumelhart y Williams publican Aprendizaje de representaciones mediante retropropagación de errores, que permite entrenar redes neuronales mucho más profundas.
(!!) Redes neuronales: modelos de aprendizaje automático que imitan el cerebro y aprenden a reconocer patrones y hacer predicciones a través de conexiones neuronales artificiales.
- 1997 – Deep Blue de IBM derrota al campeón mundial de ajedrez Kasparov, siendo la primera vez que una computadora vence a un campeón mundial en un juego complejo.
- 2002 – iRobot presenta Roomba, el primer robot aspirador doméstico producido en serie con un sistema de navegación impulsado por IA.
- 2011 – Watson de IBM derrota a dos ex campeones de Jeopardy!.
- 2012 – La startup de inteligencia artificial DeepMind desarrolla una red neuronal profunda que puede reconocer gatos en vídeos de YouTube.
- 2014 – Facebook crea DeepFace, un sistema de reconocimiento facial que puede reconocer rostros con una precisión casi humana.
(!!) DeepMind fue adquirida por Google en 2014 por 500 millones de dólares.
- 2015 – AlphaGo, desarrollado por DeepMind, derrota al campeón mundial Lee Sedol en el juego de Go.
- 2017 – AlphaZero de Google derrota a los mejores motores de ajedrez y shogi del mundo en una serie de partidas.
- 2020 – OpenAI lanza GPT-3, lo que marca un avance significativo en el procesamiento del lenguaje natural.
(!!) Procesamiento del lenguaje natural: enseña a las computadoras a comprender y utilizar el lenguaje humano mediante técnicas como el aprendizaje automático.
- 2021 – AlphaFold2 de DeepMind resuelve el problema del plegamiento de proteínas, allanando el camino para nuevos descubrimientos de fármacos y avances médicos.
- 2022 – Google despide al ingeniero Blake Lemoine por sus afirmaciones de que el modelo de lenguaje para aplicaciones de diálogo (LaMDA) de Google era sensible.
- 2023 – Artistas presentaron una demanda colectiva contra Stability AI, DeviantArt y Mid-journey por usar Stable Diffusion para remezclar las obras protegidas por derechos de autor de millones de artistas.
Gráfico: Open Tech / Genuine Impact
Entradas relacionadas
- ¿Cómo definir la «credibilidad algorítmica»? DeepSeek da en el clavo
- Los precios dinámicos exacerban la desigualdad entre los consumidores, hay que regularlos ya
- Firma contra la vigilancia biométrica masiva
#ajedrez #AlphaFold2 #AlphaGo #AlphaZero #aprendizajeAutomático #artículo #artistas #aspirador #BlakeLemoine #ConferenciaDeDartmouth #copyright #DeanEdmonds #DeepBlue #DeepFace #DeepMind #DeviantArt #ELIZA #Facebook #gatos #GenuineImpact #Go #Google #GPS #GPT3 #gráfico #Hinton #IA #IBM #infografía #inteligenciaArtificial #iRobot #Jeopardy_ #Kasparov #LaMDA #LeeSedol #MarvinMinsky #McCarthy #McCullock #MidJourney #modelos #Newell #OpenTech #OpenAI #patrones #Perceptron #Pitts #plegamientoDeProteínas #predicciones #procesamientoDelLenguajeNatural #reconocimientoFacial #redesNeuronales #remezclar #robot #Rochester #Roomba #Rosenblatt #Rumelhart #Shannon #shogi #Simon #sistemaDeNavegación #SNAR #StabilityAI #StableDiffusion #testDeTuring #Turing #vídeos #Watson #Weizenbaum #Williams #YouTube
-
Pequeños y grandes pasos hacia el imperio de la inteligencia artificial
Fuente: Open TechTraducción de la infografía:
- 1943 – McCullock y Pitts publican un artículo titulado Un cálculo lógico de ideas inmanentes en la actividad nerviosa, en el que proponen las bases para las redes neuronales.
- 1950 – Turing publica Computing Machinery and Intelligence, proponiendo el Test de Turing como forma de medir la capacidad de una máquina.
- 1951 – Marvin Minsky y Dean Edmonds construyen SNAR, la primera computadora de red neuronal.
- 1956 – Se celebra la Conferencia de Dartmouth (organizada por McCarthy, Minsky, Rochester y Shannon), que marca el nacimiento de la IA como campo de estudio.
- 1957 – Rosenblatt desarrolla el Perceptrón: la primera red neuronal artificial capaz de aprender.
(!!) Test de Turing: donde un evaluador humano entabla una conversación en lenguaje natural con una máquina y un humano.
- 1965 – Weizenbaum desarrolla ELIZA: un programa de procesamiento del lenguaje natural que simula una conversación.
- 1967 – Newell y Simon desarrollan el Solucionador General de Problemas (GPS), uno de los primeros programas de IA que demuestra una capacidad de resolución de problemas similar a la humana.
- 1974 – Comienza el primer invierno de la IA, marcado por una disminución de la financiación y del interés en la investigación en IA debido a expectativas poco realistas y a un progreso limitado.
- 1980 – Los sistemas expertos ganan popularidad y las empresas los utilizan para realizar previsiones financieras y diagnósticos médicos.
- 1986 – Hinton, Rumelhart y Williams publican Aprendizaje de representaciones mediante retropropagación de errores, que permite entrenar redes neuronales mucho más profundas.
(!!) Redes neuronales: modelos de aprendizaje automático que imitan el cerebro y aprenden a reconocer patrones y hacer predicciones a través de conexiones neuronales artificiales.
- 1997 – Deep Blue de IBM derrota al campeón mundial de ajedrez Kasparov, siendo la primera vez que una computadora vence a un campeón mundial en un juego complejo.
- 2002 – iRobot presenta Roomba, el primer robot aspirador doméstico producido en serie con un sistema de navegación impulsado por IA.
- 2011 – Watson de IBM derrota a dos ex campeones de Jeopardy!.
- 2012 – La startup de inteligencia artificial DeepMind desarrolla una red neuronal profunda que puede reconocer gatos en vídeos de YouTube.
- 2014 – Facebook crea DeepFace, un sistema de reconocimiento facial que puede reconocer rostros con una precisión casi humana.
(!!) DeepMind fue adquirida por Google en 2014 por 500 millones de dólares.
- 2015 – AlphaGo, desarrollado por DeepMind, derrota al campeón mundial Lee Sedol en el juego de Go.
- 2017 – AlphaZero de Google derrota a los mejores motores de ajedrez y shogi del mundo en una serie de partidas.
- 2020 – OpenAI lanza GPT-3, lo que marca un avance significativo en el procesamiento del lenguaje natural.
(!!) Procesamiento del lenguaje natural: enseña a las computadoras a comprender y utilizar el lenguaje humano mediante técnicas como el aprendizaje automático.
- 2021 – AlphaFold2 de DeepMind resuelve el problema del plegamiento de proteínas, allanando el camino para nuevos descubrimientos de fármacos y avances médicos.
- 2022 – Google despide al ingeniero Blake Lemoine por sus afirmaciones de que el modelo de lenguaje para aplicaciones de diálogo (LaMDA) de Google era sensible.
- 2023 – Artistas presentaron una demanda colectiva contra Stability AI, DeviantArt y Mid-journey por usar Stable Diffusion para remezclar las obras protegidas por derechos de autor de millones de artistas.
Gráfico: Open Tech / Genuine Impact
Entradas relacionadas
- ¿Cómo definir la «credibilidad algorítmica»? DeepSeek da en el clavo
- Los precios dinámicos exacerban la desigualdad entre los consumidores, hay que regularlos ya
- Firma contra la vigilancia biométrica masiva
#ajedrez #AlphaFold2 #AlphaGo #AlphaZero #aprendizajeAutomático #artículo #artistas #aspirador #BlakeLemoine #ConferenciaDeDartmouth #copyright #DeanEdmonds #DeepBlue #DeepFace #DeepMind #DeviantArt #ELIZA #Facebook #gatos #GenuineImpact #Go #Google #GPS #GPT3 #gráfico #Hinton #IA #IBM #infografía #inteligenciaArtificial #iRobot #Jeopardy_ #Kasparov #LaMDA #LeeSedol #MarvinMinsky #McCarthy #McCullock #MidJourney #modelos #Newell #OpenTech #OpenAI #patrones #Perceptron #Pitts #plegamientoDeProteínas #predicciones #procesamientoDelLenguajeNatural #reconocimientoFacial #redesNeuronales #remezclar #robot #Rochester #Roomba #Rosenblatt #Rumelhart #Shannon #shogi #Simon #sistemaDeNavegación #SNAR #StabilityAI #StableDiffusion #testDeTuring #Turing #vídeos #Watson #Weizenbaum #Williams #YouTube
-
I read #Rumelhart's #backpropagation paper in 1986. It was a stunner. It changed my life.
http://www.cs.utoronto.ca/~hinton/absps/naturebp.pdf
And I read #Vaswani's #transformer in 2017. It was a groundbreaking paper. It changed the world.
It could be argued that transformers, through their use in #LLMs, have had far greater impact upon society, compared to backpropagation. On the other hand, there would be no modern #ML, but for backpropagation. So, it's a toss-up.
But to me, Rumelhart's paper is superior to Vaswani's, at least in terms of clarity, concision, coherence, and other indicia of writing style.
-
I read #Rumelhart's #backpropagation paper in 1986. It was a stunner. It changed my life.
http://www.cs.utoronto.ca/~hinton/absps/naturebp.pdf
And I read #Vaswani's #transformer in 2017. It was a groundbreaking paper. It changed the world.
It could be argued that transformers, through their use in #LLMs, have had far greater impact upon society, compared to backpropagation. On the other hand, there would be no modern #ML, but for backpropagation. So, it's a toss-up.
But to me, Rumelhart's paper is superior to Vaswani's, at least in terms of clarity, concision, coherence, and other indicia of writing style.
-
“Zwei Bezirkschefs über den Weg gelaufen
Der Bezirksrat war mit den Bezirksvorstehern Markus #Reiter ( #Grüne, #Neubau) und Markus #Rumelhart ( #SPÖ, #Mariahilf) unterwegs - pikanterweise, um unter anderem darüber zu sprechen, welche Lösungen man für von sozialen Härten betroffene Menschen finden könne.”
https://kurier.at/chronik/wien/oevp-karl-mahrer-mariahilfer-strasse-video-empoerung/402522067 #ÖVP
-
@albertcardona @NicoleCRust @complexsystems @cogneurophys @PessoaBrain @SussilloDavid @carlosbrody @Neurograce @neuralreckoning @tyrell_turing @DrYohanJohn @cian @WiringtheBrain @tdverstynen @neuralengine
I'll just tag this for later when I've had a chance to collect my thoughts.
#WinnerTakeAll #Grossberg #CompetitionCooperation
#McClelland #Rumelhart #ParallelDistributedProcessing
#CactusLanguage #LogicalGraphs #MinimalNegationOperators -
@albertcardona @NicoleCRust @complexsystems @cogneurophys @PessoaBrain @SussilloDavid @carlosbrody @Neurograce @neuralreckoning @tyrell_turing @DrYohanJohn @cian @WiringtheBrain @tdverstynen @neuralengine
I'll just tag this for later when I've had a chance to collect my thoughts.
#WinnerTakeAll #Grossberg #CompetitionCooperation
#McClelland #Rumelhart #ParallelDistributedProcessing
#CactusLanguage #LogicalGraphs #MinimalNegationOperators -
@albertcardona @NicoleCRust @complexsystems @cogneurophys @PessoaBrain @SussilloDavid @carlosbrody @Neurograce @neuralreckoning @tyrell_turing @DrYohanJohn @cian @WiringtheBrain @tdverstynen @neuralengine
I'll just tag this for later when I've had a chance to collect my thoughts.
#WinnerTakeAll #Grossberg #CompetitionCooperation
#McClelland #Rumelhart #ParallelDistributedProcessing
#CactusLanguage #LogicalGraphs #MinimalNegationOperators -
@albertcardona @NicoleCRust @complexsystems @cogneurophys @PessoaBrain @SussilloDavid @carlosbrody @Neurograce @neuralreckoning @tyrell_turing @DrYohanJohn @cian @WiringtheBrain @tdverstynen @neuralengine
I'll just tag this for later when I've had a chance to collect my thoughts.
#WinnerTakeAll #Grossberg #CompetitionCooperation
#McClelland #Rumelhart #ParallelDistributedProcessing
#CactusLanguage #LogicalGraphs #MinimalNegationOperators -
@albertcardona @NicoleCRust @complexsystems @cogneurophys @PessoaBrain @SussilloDavid @carlosbrody @Neurograce @neuralreckoning @tyrell_turing @DrYohanJohn @cian @WiringtheBrain @tdverstynen @neuralengine
I'll just tag this for later when I've had a chance to collect my thoughts.
#WinnerTakeAll #Grossberg #CompetitionCooperation
#McClelland #Rumelhart #ParallelDistributedProcessing
#CactusLanguage #LogicalGraphs #MinimalNegationOperators -
#ThemeOneProgram • #JetsAndSharks 3.1
• https://inquiryintoinquiry.com/2022/09/03/theme-one-program-jets-and-sharks-3/Using #CactusGraphs or #MinimalNegations to implement pools of #MutuallyInhibitoryNeurons erects #NeuralArchitectures on substantially different foundations from current #Connectionist models. At a high level of abstraction, however, there is enough homology between the 2 orders to compare their performance on many of the same tasks. Thus I was able to try the program on a few examples suggested by #McClelland & #Rumelhart.
-
#ThemeOneProgram • #JetsAndSharks 3.1
• https://inquiryintoinquiry.com/2022/09/03/theme-one-program-jets-and-sharks-3/Using #CactusGraphs or #MinimalNegations to implement pools of #MutuallyInhibitoryNeurons erects #NeuralArchitectures on substantially different foundations from current #Connectionist models. At a high level of abstraction, however, there is enough homology between the 2 orders to compare their performance on many of the same tasks. Thus I was able to try the program on a few examples suggested by #McClelland & #Rumelhart.
-
#ThemeOneProgram • #JetsAndSharks 3.1
• https://inquiryintoinquiry.com/2022/09/03/theme-one-program-jets-and-sharks-3/Using #CactusGraphs or #MinimalNegations to implement pools of #MutuallyInhibitoryNeurons erects #NeuralArchitectures on substantially different foundations from current #Connectionist models. At a high level of abstraction, however, there is enough homology between the 2 orders to compare their performance on many of the same tasks. Thus I was able to try the program on a few examples suggested by #McClelland & #Rumelhart.
-
#ThemeOneProgram • #JetsAndSharks 3
• https://inquiryintoinquiry.com/2022/09/03/theme-one-program-jets-and-sharks-3/Given a representation of the Jets & Sharks universe in computer memory, we naturally want to see if the memory serves to supply the facts a well-constructed #DataBase should.
In their #PDPHandbook presentation of the Jets & Sharks example, #McClelland & #Rumelhart give several exercises for exploring the use of their #NeuralPool #MemoryModel on tasks of #Retrieval & #Generalization.
Exercise 2.1
• https://web.stanford.edu/group/pdplab/pdphandbook/handbookch3#x7-330001 -
#ThemeOneProgram • #JetsAndSharks 3
• https://inquiryintoinquiry.com/2022/09/03/theme-one-program-jets-and-sharks-3/Given a representation of the Jets & Sharks universe in computer memory, we naturally want to see if the memory serves to supply the facts a well-constructed #DataBase should.
In their #PDPHandbook presentation of the Jets & Sharks example, #McClelland & #Rumelhart give several exercises for exploring the use of their #NeuralPool #MemoryModel on tasks of #Retrieval & #Generalization.
Exercise 2.1
• https://web.stanford.edu/group/pdplab/pdphandbook/handbookch3#x7-330001 -
#ThemeOneProgram • #JetsAndSharks 3
• https://inquiryintoinquiry.com/2022/09/03/theme-one-program-jets-and-sharks-3/Given a representation of the Jets & Sharks universe in computer memory, we naturally want to see if the memory serves to supply the facts a well-constructed #DataBase should.
In their #PDPHandbook presentation of the Jets & Sharks example, #McClelland & #Rumelhart give several exercises for exploring the use of their #NeuralPool #MemoryModel on tasks of #Retrieval & #Generalization.
Exercise 2.1
• https://web.stanford.edu/group/pdplab/pdphandbook/handbookch3#x7-330001 -
#ThemeOneProgram • #JetsAndSharks 1.3
• https://inquiryintoinquiry.com/2022/08/25/theme-one-program-jets-and-sharks-1/The manner of representation may be illustrated by transcribing a well-known example from the #ParallelDistributedProcessing literature (#McClelland and #Rumelhart 1988) and working through a couple of the associated exercises as translated into #LogicalGraphs.
#Logic #Peirce #Semiotics #Semiosis
#Grossberg #CompetitionCooperation
#GraphTheory #ModelTheory #ProofTheory
#LogicalCacti #MinimalNegationOperators -
#ThemeOneProgram • #JetsAndSharks 1.3
• https://inquiryintoinquiry.com/2022/08/25/theme-one-program-jets-and-sharks-1/The manner of representation may be illustrated by transcribing a well-known example from the #ParallelDistributedProcessing literature (#McClelland and #Rumelhart 1988) and working through a couple of the associated exercises as translated into #LogicalGraphs.
#Logic #Peirce #Semiotics #Semiosis
#Grossberg #CompetitionCooperation
#GraphTheory #ModelTheory #ProofTheory
#LogicalCacti #MinimalNegationOperators -
#ThemeOneProgram • #JetsAndSharks 1.3
• https://inquiryintoinquiry.com/2022/08/25/theme-one-program-jets-and-sharks-1/The manner of representation may be illustrated by transcribing a well-known example from the #ParallelDistributedProcessing literature (#McClelland and #Rumelhart 1988) and working through a couple of the associated exercises as translated into #LogicalGraphs.
#Logic #Peirce #Semiotics #Semiosis
#Grossberg #CompetitionCooperation
#GraphTheory #ModelTheory #ProofTheory
#LogicalCacti #MinimalNegationOperators -
#ThemeOneProgram • #JetsAndSharks 1.2
• https://inquiryintoinquiry.com/2022/08/25/theme-one-program-jets-and-sharks-1/One way to do this is to interpret the blank or #UnmarkedState as the #RestingState of a #NeuralPool, the bound or #MarkedState as its #ActivatedState, and to represent a mutually inhibitory pool of #Neurons \(a,b,c\) by the proposition \(\texttt{(}a\texttt{,}b\texttt{,}c\texttt{)}.\)
#Logic #LogicalGraphs #Peirce
#Grossberg #McClelland #Rumelhart
#GraphTheory #ModelTheory #ProofTheory
#LogicalCacti #MinimalNegationOperators -
#ThemeOneProgram • #JetsAndSharks 1.2
• https://inquiryintoinquiry.com/2022/08/25/theme-one-program-jets-and-sharks-1/One way to do this is to interpret the blank or #UnmarkedState as the #RestingState of a #NeuralPool, the bound or #MarkedState as its #ActivatedState, and to represent a mutually inhibitory pool of #Neurons \(a,b,c\) by the proposition \(\texttt{(}a\texttt{,}b\texttt{,}c\texttt{)}.\)
#Logic #LogicalGraphs #Peirce
#Grossberg #McClelland #Rumelhart
#GraphTheory #ModelTheory #ProofTheory
#LogicalCacti #MinimalNegationOperators -
#ThemeOneProgram • #JetsAndSharks 1.2
• https://inquiryintoinquiry.com/2022/08/25/theme-one-program-jets-and-sharks-1/One way to do this is to interpret the blank or #UnmarkedState as the #RestingState of a #NeuralPool, the bound or #MarkedState as its #ActivatedState, and to represent a pool of #MutuallyInhibitoryNeurons \(a,b,c\) by the proposition \(\texttt{(}a\texttt{,}b\texttt{,}c\texttt{)}.\)
#Logic #LogicalGraphs #Peirce
#Grossberg #McClelland #Rumelhart
#GraphTheory #ModelTheory #ProofTheory
#LogicalCacti #MinimalNegationOperators -
#ThemeOneProgram • #JetsAndSharks 1.1
• https://inquiryintoinquiry.com/2022/08/25/theme-one-program-jets-and-sharks-1/Example 5. Jets and Sharks
The #PropositionalCalculus based on #MinimalNegationOperators can be interpreted in a way resembling the logic of #ActivationStates and #CompetitionConstraints in one class of #NeuralNetwork models.
#Logic #LogicalGraphs
#Peirce #Semiotics #Semiosis
#Grossberg #McClelland #Rumelhart
#ParallelDistributedProcessing #PDP
#GraphTheory #ModelTheory #ProofTheory -
#ThemeOneProgram • #JetsAndSharks 1.1
• https://inquiryintoinquiry.com/2022/08/25/theme-one-program-jets-and-sharks-1/Example 5. Jets and Sharks
The #PropositionalCalculus based on #MinimalNegationOperators can be interpreted in a way resembling the logic of #ActivationStates and #CompetitionConstraints in one class of #NeuralNetwork models.
#Logic #LogicalGraphs
#Peirce #Semiotics #Semiosis
#Grossberg #McClelland #Rumelhart
#ParallelDistributedProcessing #PDP
#GraphTheory #ModelTheory #ProofTheory -
#ThemeOneProgram • #JetsAndSharks 1.1
• https://inquiryintoinquiry.com/2022/08/25/theme-one-program-jets-and-sharks-1/Example 5. Jets and Sharks
The #PropositionalCalculus based on #MinimalNegationOperators can be interpreted in a way resembling the logic of #ActivationStates and #CompetitionConstraints in one class of #NeuralNetwork models.
#Logic #LogicalGraphs
#Peirce #Semiotics #Semiosis
#Grossberg #McClelland #Rumelhart
#ParallelDistributedProcessing #PDP
#GraphTheory #ModelTheory #ProofTheory -
#ThemeOneProgram • #JetsAndSharks 1
• https://inquiryintoinquiry.com/2022/08/25/theme-one-program-jets-and-sharks-1/In developing the Theme One Program I tested successive versions of its #InferenceEngine for #PropositionalCalculus #ConstraintSatisfaction on examples of #Logic problems current in the literature of the day. #McClelland and #Rumelhart's #PDPHandbook set one of the wittiest gems ever to whet one's app-titude so I could hardly help but take it on. The linked text is a light revision of the way I set it up in the program's User Guide.
-
#ThemeOneProgram • #SurveyPage
• https://inquiryintoinquiry.com/2022/06/12/survey-of-theme-one-program-4/A program I worked on all through the 80s aimed to develop #Algorithms and #DataStructures for integrating #EmpiricalLearning and #LogicalReasoning. I had earlier developed programs for #Learning #TwoLevelFormalLanguages and for #PropositionalLogic #ConstraintSatisfaction based on C.S. #Peirce's #LogicalGraphs. Getting those 2 faculties to work together meant integrating the ways of #Empiricism and #Rationalism.
#ThemeOneProgram #Learning #Reasoning
#Logic #LogicalGraphs #FormalLanguages
#Algorithm #DataStructure #GraphTheory
#Peirce #PragmaticSemioticInformation
#Empiricism #Rationalism #Pragmatism
#ModelTheory #ProofTheory #Semiotics
#ParallelDistributedProcessing #PDP
#Grossberg #McClelland #Rumelhart -
#ThemeOneProgram • #SurveyPage
• https://inquiryintoinquiry.com/2022/06/12/survey-of-theme-one-program-4/A program I worked on all through the 80s aimed to develop #Algorithms and #DataStructures for integrating #EmpiricalLearning and #LogicalReasoning. I had earlier developed programs for #Learning #TwoLevelFormalLanguages and for #PropositionalLogic #ConstraintSatisfaction based on C.S. #Peirce's #LogicalGraphs. Getting those 2 faculties to work together meant integrating the ways of #Empiricism and #Rationalism.
#ThemeOneProgram #Learning #Reasoning
#Logic #LogicalGraphs #FormalLanguages
#Algorithm #DataStructure #GraphTheory
#Peirce #PragmaticSemioticInformation
#Empiricism #Rationalism #Pragmatism
#ModelTheory #ProofTheory #Semiotics
#ParallelDistributedProcessing #PDP
#Grossberg #McClelland #Rumelhart -
#ThemeOneProgram • #SurveyPage
• https://inquiryintoinquiry.com/2022/06/12/survey-of-theme-one-program-4/A program I worked on all through the 80s aimed to develop #Algorithms and #DataStructures for integrating #EmpiricalLearning and #LogicalReasoning. I had earlier developed programs for #Learning #TwoLevelFormalLanguages and for #PropositionalLogic #ConstraintSatisfaction based on C.S. #Peirce's #LogicalGraphs. Getting those 2 faculties to work together meant integrating the ways of #Empiricism and #Rationalism.
#ThemeOneProgram #Learning #Reasoning
#Logic #LogicalGraphs #FormalLanguages
#Algorithm #DataStructure #GraphTheory
#Peirce #PragmaticSemioticInformation
#Empiricism #Rationalism #Pragmatism
#ModelTheory #ProofTheory #Semiotics
#ParallelDistributedProcessing #PDP
#Grossberg #McClelland #Rumelhart