#approximation — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #approximation, aggregated by home.social.
-
Trapezoidal Rule: Estimates definite integrals by approximating the area under a curve with trapezoids. Ex: For one interval, Area ≈ h/2 * (f(a) + f(b)). Pro-Tip: Smaller step sizes (more trapezoids) = significantly better accuracy! #NumericalIntegration #Approximation #STEM #StudyNotes
-
#BusyBusyBusy... #BusyBeingChinese...
#Quote: 不是高帆,是看不见的风。
#ComingSoon; #DrPSiReN is #WatchingYou...
🧙:Polymaths:🤖:wolfparty:🤖:Polymaths:🧙 | :fediverse:🦹:PirateBadge:🦄:PirateBadge:🦹:fediverse:
#AlsoBeingEuropean #Approximation #LiteraryTranslations #AIInTheWild #NotBeenInvented #TheIndustrialGoldenAge #CyborgOrangeJesus
-
mistakes were made, who needs perfect symetry anyway?
-
Правда ли KAN лучше MLP? Свойство разделения глубины между двумя архитектурами
Прошлым летом в свет вышла новая архитектура нейронных сетей под названием Kolmogorov-Arnold Networks (KAN). На момент выхода статьи про KAN эта новость произвела фурор в мире машинного обучение, так как KAN показывала существенный прирост в качестве аппроксимации различных сложных функций. Ошибка новых сетей падает значительно быстрее при увеличении числа параметров. Однако, за все приходится платить, и цена таких маленьких значений функции ошибки - медленное обучение: KAN обучается примерно в 10 раз медленнее, чем старый добрый MLP. Из всего этого возникает вопрос: насколько все же уместно использование новой архитектуры вместо привычных всем MLP? В данной статье будет найдена функция, которая может быть реализована с помощью двухслойного KAN полиномиальной ширины, но не может быть приближена никакой двухслойной ReLU MLP сетью с полиномиальной шириной
https://habr.com/ru/articles/929972/
#kan #mlp #approximation #math #machine_learning #deep_learning #science #neural_networks #research
-
Pi Approximation Day (22/7) actually is on 21.9911485751286 / 7 = 07-21T23:47:15.237...
-
用「加法」來計算浮點數乘法的近似值
在「Why Does Integer Addition Approximate Float Multiplication? (probablydance.com)」這邊看到的,原文在「Why Does Integer Addition Approximate Float Mu
#Murmuring #754 #addition #approximate #approximation #float #ieee #integer #multiplication
-
Misleading GPS, Philosophy of Maps, And You - The oft-quoted saying “all models are wrong, but some are useful” is a tounge-in-c... - https://hackaday.com/2024/09/10/misleading-gps-philosophy-of-maps-and-you/ #approximation #precision #gpshacks #accuracy #mapping #garmin #strava #model #gps #map
-
Physics heresy: Projectiles don’t actually make parabolas
Taught in every introductory physics class for centuries, the parabola is only an imperfect approximation of the true path of a projectile. #Projectile #Projectiles #ProjectileMotion #Parabola #Approximation #Physics #Heresy #Parabolas
https://bigthink.com/starts-with-a-bang/projectiles-dont-make-parabolas/
-
Comparison of basic 1/sqrt implementations. Short versions. Next is a version by Carlos F. Borges' which is correctly rounded except for 1 value per 2 power-of-two intervals (1 per 2 exponent values...like [1,4])
Test driver (& references to Borge) are in this gist: https://gist.github.com/Marc-B-Reynolds/9fb24a7a4ee915e6e973bf9f4d08c404
The driver also includes:
• 1/sqrt(x) - which I had forget to include.
• correctly rounded versions
• SSE rsqrt approx
• old skool quake approx (added a modernized one) -
Finally the most sophisticated of the three is Simpson’s rule in which pairs of adjacent strips use a #quadratic #parabola to interpolate between the ordinates. This even better at convergence than the trapezium rule. I’ve shown a different function here because for the function shown above the difference between the approximation and the numerical #approximation is not discernible.
#MyWork #Mathematics #Maths #Numerics #SimpsonsRule #FreeSoftware #CCBYSA #Wikipedia #Wikimedia