home.social

#alphago — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #alphago, aggregated by home.social.

  1. 800.000 Neuronen lernen in 5 Minuten Ping-Pong – und spielen #Doom.
    Klingt wie #Sci-Fi? Ist aber echte Forschung von Cortical Labs. DishBrain lernt schneller und energieeffizienter als #DeepBlue oder #AlphaGo. Revolutioniert biologisches Computing nun KI?
    Der #BlogArtikel von Henrik Müller ist kostenlos online verfügbar: laborjournal.de/blog/

    #Laborjournal #LifeSciences #Neurowissenschaften #BioComputing #neuronalePlastizität #KI

  2. #DavidSilver, former #DeepMind researcher behind #AlphaGo, is raising a $ 1B seed round for his new London #AIventure #Ineffable Intelligence. If completed, it would be Europe's largest seed round ever, with a $ 4B pre-money valuation. Sequoia leading, with Nvidia, Google, Microsoft in talks. thenextweb.com/news/david-silv #Pirates #Tech #Startup #News

  3. ICPC世界總決賽:Google DeepMind新模型達金牌水準,破解人類對手解不開的難題

    馮冠維 2025-09-18 10:27:00 CST
    Google旗下AI實驗室DeepMind17日宣布,其最新版本的AI模型,在有「程式設計界奧林匹亞」之稱的國際大學生程式設計競賽(ICPC)世界總決賽中,取得了相當於金牌的驚人成績。
    https://www.thenewslens.com/article/258797
    #AlphaGo #深藍 #DeepBlue #人工智慧 #DeepMind #AI #Gemini #科學 #Gemini 2.5 #ICPC #程式設計

  4. Pequeños y grandes pasos hacia el imperio de la inteligencia artificial

    Fuente: Open Tech

    Traducción de la infografía:

    • 1943 – McCullock y Pitts publican un artículo titulado Un cálculo lógico de ideas inmanentes en la actividad nerviosa, en el que proponen las bases para las redes neuronales.
    • 1950 – Turing publica Computing Machinery and Intelligence, proponiendo el Test de Turing como forma de medir la capacidad de una máquina.
    • 1951 – Marvin Minsky y Dean Edmonds construyen SNAR, la primera computadora de red neuronal.
    • 1956 – Se celebra la Conferencia de Dartmouth (organizada por McCarthy, Minsky, Rochester y Shannon), que marca el nacimiento de la IA como campo de estudio.
    • 1957 – Rosenblatt desarrolla el Perceptrón: la primera red neuronal artificial capaz de aprender.

    (!!) Test de Turing: donde un evaluador humano entabla una conversación en lenguaje natural con una máquina y un humano.

    • 1965 – Weizenbaum desarrolla ELIZA: un programa de procesamiento del lenguaje natural que simula una conversación.
    • 1967 – Newell y Simon desarrollan el Solucionador General de Problemas (GPS), uno de los primeros programas de IA que demuestra una capacidad de resolución de problemas similar a la humana.
    • 1974 – Comienza el primer invierno de la IA, marcado por una disminución de la financiación y del interés en la investigación en IA debido a expectativas poco realistas y a un progreso limitado.
    • 1980 – Los sistemas expertos ganan popularidad y las empresas los utilizan para realizar previsiones financieras y diagnósticos médicos.
    • 1986 – Hinton, Rumelhart y Williams publican Aprendizaje de representaciones mediante retropropagación de errores, que permite entrenar redes neuronales mucho más profundas.

    (!!) Redes neuronales: modelos de aprendizaje automático que imitan el cerebro y aprenden a reconocer patrones y hacer predicciones a través de conexiones neuronales artificiales.

    • 1997 – Deep Blue de IBM derrota al campeón mundial de ajedrez Kasparov, siendo la primera vez que una computadora vence a un campeón mundial en un juego complejo.
    • 2002 – iRobot presenta Roomba, el primer robot aspirador doméstico producido en serie con un sistema de navegación impulsado por IA.
    • 2011 – Watson de IBM derrota a dos ex campeones de Jeopardy!.
    • 2012 – La startup de inteligencia artificial DeepMind desarrolla una red neuronal profunda que puede reconocer gatos en vídeos de YouTube.
    • 2014 – Facebook crea DeepFace, un sistema de reconocimiento facial que puede reconocer rostros con una precisión casi humana.

    (!!) DeepMind fue adquirida por Google en 2014 por 500 millones de dólares.

    • 2015 – AlphaGo, desarrollado por DeepMind, derrota al campeón mundial Lee Sedol en el juego de Go.
    • 2017 – AlphaZero de Google derrota a los mejores motores de ajedrez y shogi del mundo en una serie de partidas.
    • 2020 – OpenAI lanza GPT-3, lo que marca un avance significativo en el procesamiento del lenguaje natural.

    (!!) Procesamiento del lenguaje natural: enseña a las computadoras a comprender y utilizar el lenguaje humano mediante técnicas como el aprendizaje automático.

    • 2021 – AlphaFold2 de DeepMind resuelve el problema del plegamiento de proteínas, allanando el camino para nuevos descubrimientos de fármacos y avances médicos.
    • 2022 – Google despide al ingeniero Blake Lemoine por sus afirmaciones de que el modelo de lenguaje para aplicaciones de diálogo (LaMDA) de Google era sensible.
    • 2023 – Artistas presentaron una demanda colectiva contra Stability AI, DeviantArt y Mid-journey por usar Stable Diffusion para remezclar las obras protegidas por derechos de autor de millones de artistas.

    Gráfico: Open Tech / Genuine Impact

    Entradas relacionadas

    #ajedrez #AlphaFold2 #AlphaGo #AlphaZero #aprendizajeAutomático #artículo #artistas #aspirador #BlakeLemoine #ConferenciaDeDartmouth #copyright #DeanEdmonds #DeepBlue #DeepFace #DeepMind #DeviantArt #ELIZA #Facebook #gatos #GenuineImpact #Go #Google #GPS #GPT3 #gráfico #Hinton #IA #IBM #infografía #inteligenciaArtificial #iRobot #Jeopardy_ #Kasparov #LaMDA #LeeSedol #MarvinMinsky #McCarthy #McCullock #MidJourney #modelos #Newell #OpenTech #OpenAI #patrones #Perceptron #Pitts #plegamientoDeProteínas #predicciones #procesamientoDelLenguajeNatural #reconocimientoFacial #redesNeuronales #remezclar #robot #Rochester #Roomba #Rosenblatt #Rumelhart #Shannon #shogi #Simon #sistemaDeNavegación #SNAR #StabilityAI #StableDiffusion #testDeTuring #Turing #vídeos #Watson #Weizenbaum #Williams #YouTube