LHC.
В области вычислений есть достаточно большая группа задач, которые решаются численными методами весьма сложно. Точнее говоря, решаются-то они просто, но вот количество потребных вычислений растет совершенно нелинейно с размерностью задачи, а чаще всего и вовсе экспоненциально. Однако затем прикладники заметили, что такая точность пиплу не нужна, схавают и так. И придумали пожертвовать точностью, но получить какой-то результат на основе стохастических данных.
Т.е. формируется некий случайный процесс с вероятностными характеристиками решаемой задачи и этот случайный процесс запускается N, а то и M раз. На основании результатов получаем приблизительное, но достаточно точное решение задачи. Как вы уже догадались, я веду свою речь о банальном методе Монте-Карло. Для понятности — вот пример интегрирования по этому методу.
Набросали случайных точек в прямоугольник известной площади, из общего количества точек посчитали точки, которые попали под график функции и получили примитивную пропорцию, которая оценивает площадь, т.е. интеграл. Понятно, что результат тем точнее, чем больше точек раскидали. Это общее свойство для всех монте-карловских методов, чем больше повторений случайного эксперимента, тем лучше для результата.
Благодаря этой фигне амеры все-таки взорвали свою водородную бомбу. Не было у них гуманиста Сахарова, пришлось матметоды изобретать, благо многомерных интегралов было в количествах и компутеры уже гудели под боком.
Это я к чему все. Сегодня в ленте уж больно дофига Нины Андреевой с ее непоступлением принципами. И думается мне, что обсуждать эту ситуацию(именно ситуацию, одну статью обсуждать вообще нет никакого смысла) без понимания описанного выше метода крайне сложно. Совершенно точно — безблагодатно.
PS: Да, я знаю, что это не метод, а группа методов.