Укрощение бесконечности. История математики от первых чисел до теории хаоса Стюарт Иэн
Сочетания
Рабочее определение вероятности некоего события – относительное число случаев, в которых оно происходит. Если речь о кости, у которой может одинаково часто выпасть любая из шести граней, вероятность выпадения каждой грани равна 1/6. Более ранние работы по вероятности основаны на подсчете количества вариантов появления каждого события и делении его на общее число возможностей.
Главной проблемой здесь были сочетания. Скажем, если взять колоду из шести карт, сколько в ней будет разных подмножеств по четыре карты? Один из способов – перечислить все эти подмножества: если у нас карты с достоинством 1–6, получится:
т. е. их всего 15. Но такой метод слишком громоздкий для большего количества карт, и здесь нужно нечто более систематическое.
Представим, что мы выбираем по одному элементу из подмножества. Первый можно выбрать шестью способами, второй только пятью (один использован), третий – четырьмя, четвертый – тремя. Общее число выборов в этом порядке равно 6 5 4 3 = 360. Но каждое подмножество сосчитано здесь 24 раза: начав с 1234, далее мы найдем 1243, 2134 и т. д. и получим 24 способа (4 3 2) переставить четыре объекта. Значит, точный ответ будет 360/24, т. е. 15. Этот аргумент показывает, что количество способов выбрать m объектов из общего числа n объектов равно:
Это выражение называется биномиальным коэффициентом, потому что появляется и в алгебре. Если мы преобразуем его в таблицу, чтобы n-я строка содержала биномиальные коэффициенты
то результат будет выглядеть так.
В шестой (счет начинается с нуля) строке мы увидим числа 1, 6, 15, 20, 15, 6, 1.
Сравним с формулой
(x + 1)6 = x6 + 6x5 + 15x4 + 20x3 + 15x2 + 6x + 1,
и мы видим, что те же числа появляются как коэффициенты. Это не совпадение.
Треугольник чисел назван треугольником Паскаля, потому что обсуждался Паскалем в 1655 г. Однако известен он был гораздо раньше: первое упоминание в древнеиндийском шастре «Чандас шастра» датируется примерно 950 г. Также его знали персидские математики Аль-Караджи и Омар Хайям (в современном Иране его называют треугольником Хайяма).
Треугольник Паскаля
Теория вероятностей
Биномиальные коэффициенты с большим успехом были использованы в первой книге по теории вероятностей – труде под названием «Искусство предположений», написанном Якобом Бернулли в 1713 г. В книге автор поясняет столь необычное название.
Мы определяем искусство предположений, или стохастическое искусство, как искусство точной оценки вероятностей, чтобы в наших суждениях и действиях мы всегда опирались на то, что признано лучшим, наиболее приемлемым, наиболее определенным или рекомендуемым; это единственная основа для мудрости философа и благоразумия государственного мужа.
Возможно, правильнее было бы назвать эту книгу «Искусство догадок».
Бернулли принимал как данность, что чем больше количество испытаний, тем лучше можно будет оценить вероятность.
Предположим, без вашего ведома в урну поместили 3000 белых камней и 2000 черных. Пытаясь определить количество этих камней, вы вынимаете один камень за другим (каждый раз возвращая его обратно) и обращаете внимание, как часто попадаются белый и черный камни. Насколько часто вам придется так делать: 10 раз, или 100 раз, или 1000 раз и т. д., что более вероятно, ‹…› чтобы [в итоге] выбранные белые и черные камни находились в том же соотношении 3:2, что и в урне?
Здесь Бернулли не только задал один из основных вопросов, но и изобрел стандартный иллюстративный пример – камни в урне. Он явно был уверен, что пропорция 3:2 будет разумным результатом, но понимал, что в реальности эксперименты могут лишь приблизиться к ней. Однако он был уверен еще и в том, что при достаточном количестве попыток эта аппроксимация будет всё точнее и точнее.
Тут была своя трудность, надолго затормозившая развитие этой науки. В подобных экспериментах всегда есть определенная возможность, что по чистой случайности все вынутые из урны камни окажутся белыми. Нет достаточно надежной гарантии, что пропорция будет всегда стремиться к 3/2. В лучшем случае мы можем утверждать, что с очень высокой вероятностью числа будут приближаться к этому значению. Но тогда возникает риск круговой логики: мы используем пропорции, полученные в опытах, чтобы оценить вероятности, но также используем вероятности, чтобы получить этот вывод. Как мы видим, что вероятность вытащить только белые камни крайне мала? Если мы добиваемся этого в большем числе испытаний, то должны учесть и возможность того, что результат по какой-то причине окажется ошибочным. Единственным выходом из этого тупика кажется проведение еще большего числа испытаний, чтобы показать, как низка вероятность такого результата. В итоге мы попадаем в состояние, слишком напоминающее бесконечное движение по кругу.
К счастью, первые исследователи теории вероятностей не позволили этому логическому препятствию себя остановить. Как и в случае с исчислением, они знали, чего хотят и как этого добиться. Философские суждения были для них менее важны, чем поиск ответов на вопросы.
Книга Бернулли содержала много важных идей и результатов. Один из них, закон больших чисел, показывает нам, в каком именно смысле долгосрочные наблюдения за пропорциями в испытаниях соответствуют вероятностям. Главным образом он доказывает следующее: вероятность того, что пропорция не будет близка к правильной вероятности, стремится к нулю при неограниченном росте количества ипытаний.
ЧТО ТЕОРИЯ ВЕРОЯТНОСТЕЙ ДАЛА ИМВ 1710 г. Джон Арбетнот представил в Королевское общество Великобритании статью, в которой с помощью теории вероятностей доказывал существование Бога. Он проанализировал ежегодное число крещений младенцев мужского и женского пола в 1629–1710 гг. и обнаружил, что мальчиков было немногим больше, чем девочек. Более того, эта разница оставалась практически неизменной каждый год. Этот факт был уже тогда хорошо известен, но Арбетнот вычислил вероятность того, что пропорция постоянна. Его результат получился очень маленьким: 282. Он указал, что если такой эффект наблюдается во всех странах, во все времена и у всех народов, то шанс был бы еще меньше. Из чего он сделал вывод, что всё происходит не по случайности, а благодаря божественному провидению.
А в 1872 г. Фрэнсис Гальтон использовал теорию вероятностей для оценки действенности молитв исходя из того, что огромное число людей каждый день возносят молитвы о здоровье королевской семьи. Он собрал данные по «средней продолжительности жизни мужчин из различных сословий, проживших более 30 лет, от 1758 до 1843 г.», добавив, что «исключил смерти от несчастного случая». В его выборку вошли аристократы, королевская семья, духовенство, адвокаты, врачи, дворяне, купцы, офицеры армии и флота, деятели науки, литературы и искусства. Он обнаружил, что «властители буквально самые коротко живущие из всех состоятельных слоев общества. Таким образом, молитвы совершенно бесполезны, если только не прибегнуть к весьма спорной гипотезе, будто условия жизни королевской семьи настолько фатальны, что отчасти, хотя и не полностью, могут нейтрализовать эффект народных молитв».
Другая базовая теорема может быть рассмотрена для случая повторных бросков бракованной (смещенной) монеты с вероятностью p для выпадения орла и q = 1 – p для выпадения решки. Если монету бросить дважды, какова будет вероятность того, что орел выпадет 2, 1 или 0 раз? Ответ Бернулли был p2, 2pq и q2. Таковы результаты при разложении выражения (p + q)2 в p2 + 2pq + q2. А если монету бросить три раза, вероятность того, что орел выпадет 3, 2, 1 или 0 раз, равна последовательности множителей в выражении (p + q)3 = p3 + 3p2q + 3q2p + q3.
В более общем виде, если монету бросить n раз, вероятность выпадения орла m раз будет равна:
т. е. соответствующему члену в разложении (p + q)n.
В 1730–1738 гг. Абрахам де Муавр продолжил опыты Бернулли со смещенной монетой. Когда m и n достаточно велики, трудно точно вычислить биномиальный коэффициент, и де Муавр вывел приблизительную формулу, соответствующую биномиальному распределению Бернулли, которое сейчас мы называем функцией ошибок или нормальным распределением:
Де Муавр заслуженно считается первым математиком, явно показавшим эту связь. Это стало краеугольным камнем в развитии как теории вероятностей, так и статистики.
Определение вероятности
Основной проблемой теории вероятностей оставалось определение вероятности. Даже самые простые задачи – на которые все знают ответ – были чреваты логическими затруднениями. Если мы бросаем монету, то в длительном периоде ожидаем равного числа выпадений орлов и решек, и вероятность для каждого варианта равна 1/2.
Естественно, для такой вероятности монета должна быть «честной». Поврежденная может всё время выпадать орлом. Но что значит «честной»? Прежде всего, что орел и решка равновозможны. Но само выражение «равновозможны» подразумевает вероятность. Логика кажется круговой. Чтобы вычислить вероятность, нужно знать, что она собой представляет.
Чтобы выйти из этого тупика, придется вернуться к Евклиду, вдохновившему алгебраистов XIX и XX вв. Аксиомы. Хватит тревожиться о том, что такое вероятность. Запишите свойства, которыми, по вашему мнению, она должна обладать, и представьте их в виде аксиом. А потом выводите из них всё остальное.
Тогда возникает вопрос: что такое правильные аксиомы? Когда вероятность определяется по конечному множеству событий, ответить на него несложно. Однако применение теории вероятностей часто относится к потенциально бесконечному множеству возможностей. Скажем, если вы измерите угол между двумя звездами, то он будет равен некоему действительному числу между 0 и 180°. Но там бесконечно много действительных чисел. Если вы метаете дротик в доску долгое время с равным шансом попасть в любую точку на ней, то вероятность попасть в конкретную область будет равна площади этой области, деленной на общую площадь доски. Но на доске для дротиков имеется бесконечно много точек, а значит, бесконечно много областей.
Эти трудности рождали все виды проблем и парадоксов. И наконец их удалось решить новой идеей анализа – понятием меры.
Специалисты по математическому анализу, работавшие над теорией интегралов, сочли необходимым пойти дальше Ньютона и дать определение еще более сложным понятиям: что представляет собой интегрируемая функция и каков ее интеграл. После ряда попыток многих предшественников Анри Лебегу удалось определить самый общий тип интеграла, сейчас известный как интеграл Лебега, со многими приятными и полезными аналитическими свойствами.
Ключом к его определению стала мера Лебега, которая представляет собой способ применить концепцию длины к весьма сложным подмножествам вещественной прямой. Предположим, множество состоит из непересекающихся интервалов с длинами 1, 1/2, 1/4, 1/8 и т. д. Эти числа образуют сходящийся ряд с суммой 2. Здесь Лебег утверждал, что это множество имеет меру 2. В его идее обнаруживается элемент новизны: она была счетно-аддитивной. Если вы сложите бесконечный набор непересекающихся множеств и если он счетен в канторовском смысле, с кардинальным числом 0, мера всего множества равна сумме бесконечного ряда, образованного мерами отдельных множеств.
Во многих смыслах идея меры оказалась важнее, чем интеграл, к которому она привела. В частности, вероятность и есть та же мера. На данное свойство указал в 1930-х гг. Андрей Колмогоров, составивший аксиомы для вероятностей. Точнее, он определил вероятностное пространство. В него включено множество X, набор B подмножеств X, именуемых случайными событиями, и мера m для B. Аксиомы утверждают, что m – мера и что m(X) = 1 (т. е. вероятность того, что что-то случится, всегда равна 1). Набор B также должен обладать теоретико-множественными свойствами, чтобы поддерживать понятие меры.
В случае с костями множество X состоит из чисел 16, а множество B содержит все подмножества X. Мерой любого множества Y в составе B будет количество элементов Y, деленное на 6. Эта мера согласуется с интуитивной идеей, что любая грань кости имеет вероятность выпадения 1/6. Однако использование меры требует от нас учитывать не только число граней, но и сами множества граней. С таким множеством Y связана вероятность того, что выпадет одна из граней множества Y. Интуитивно это будет размер Y, деленный на 6.
Благодаря этой простой идее Колмогоров положил конец спорам, в том числе вековым, и создал строгую теорию вероятностей.
Статистические данные
Главным приложением и ответвлением теории вероятностей стала статистика, использующая вероятности для анализа данных реального мира. Она выросла из астрономии XVIII в., когда возника необходимость учитывать ошибки наблюдений. Эмпирически и теоретически они распределены согласно функции ошибок, или нормальному распределению. Кривая этой функции формой напоминает колокол и часто называется колоколом Гаусса (колоколообразной кривой). Здесь величина ошибки откладывается по горизонтальной оси с нулевым значением посередине, а вершина кривой представляет вероятность ошибки соответствующей величины. Мелкие ошибки гораздо вероятней, серьезные случаются гораздо реже.
Колоколообразная кривая
В 1835 г. Адольф Кетле выступил с предложением использовать колоколообразную кривую для моделирования социальных данных: рождений, смертей, разводов, преступлений и суицидов. Он открыл, что, хотя такие события непредсказуемы для отдельных лиц, они обладают статистическими закономерностями, если рассматривать их по популяции в целом. Он воплотил свою идею, создав «среднестатистического человека», фиктивную личность со средними показателями по всем параметрам. По Кетле, среднестатистический человек вовсе не был отвлеченной математической концепцией: это объект социальной справедливости.
График Кетле для количества людей, имеющих данный вес. Вес откладывается по горизонтальной оси, количество людей – по вертикальной
Начиная с 1880-х общественные науки существенно расширили использование идей статистики, особенно колоколообразной кривой, в качестве замены реальному эксперименту. В 1865 г. Фрэнсис Гальтон занялся исследованием наследственности человека. Как рост ребенка соотносится с ростом его родителей? А как насчет веса или умственных способностей? Он принял колоколообразную кривую Кетле, но воспринимал ее как способ разделения определенных популяций, а не как моральный императив. Если какие-то данные демонстрировали два пика вместо одного на колоколообразной кривой, значит, популяция должна состоять из двух субпопуляций, каждая со своей кривой. К 1877 г. исследования Гальтона подвели его к изобретению регрессионного анализа – способа сравнения одного множества данных с другим для выявления наиболее вероятных взаимоотношений.
Другой заметной фигурой был Исидор Эджуорт. Он не был наделен воображением Гальтона, а был, скорее, технократом и сумел подвести под идеи Гальтона надежную математическую основу. Третьим был Карл Пирсон, внесший значительный вклад в развитие математики. Однако наибольшую пользу своими открытиями Пирсон принес в качестве «продавца идеи»: он убедил весь мир, что статистика – очень полезная наука.
ЧТО ТЕОРИЯ ВЕРОЯТНОСТЕЙ ДАЕТ НАМЧрезвычайно важная область приложения теории вероятностей – медицинские испытания новых лекарств. В этих экспериментах проводится сбор данных о воздействии препарата: действительно ли он лечит болезнь и имеет ли какие-то нежелательные побочные эффекты. Что бы ни показывали полученные цифры, главным вопросом остается их статистическая значимость: являются ли они результатом непосредственного воздействия лекарства, или это плод чистой случайности? Проблему помогает решить использование статистического метода под названием проверка гипотезы. Он сравнивает данные исследования со статистической моделью и определяет вероятность того, что результат случаен. Если, например, вероятность меньше 0,01, данные с вероятностью 0,99 не получены случайно. Эффект значим на 99 %. Такие методы позволяют с высокой степенью достоверности определить, какое лекарство самое эффективное, а какое имеет побочные эффекты и не годится для использования.
Ньютон и его последователи показали, что математика может быть очень эффективным способом постижения закономерностей природы. Открытие теории вероятностей и ее прикладной ветви, статистики, имело то же значение для постижения нерегулярности природы. Безусловно, и в случайных событиях можно найти числовые закономерности. Однако они проявляются только в статистических величинах, таких как долгосрочные тренды и средние значения. Они позволяют делать предположения, но лишь о вероятности некоего события. Они не предсказывают, когда событие произойдет. Несмотря на это, теория вероятностей стала одним из самых популярных математических приемов, востребованных и в науке, и в медицине – везде, где необходимо решить, является ли полученный эффект значимым или кажущейся закономерностью, полученной в результате совпадений.
Глава 19. Мельницы для чисел
Математики всегда мечтали создать машины, которые избавили бы их от занудных, рутинных вычислительных операций. Чем меньше времени уходит на вычисления, тем больше остается на размышления. Еще с доисторических времен человечество использовало палочки и камешки для счета, пока кучки камней не привели к изобретению счетов, где нанизанные на проволоку бусинки заменили разряды числа. Особенно удачным оказался японский вариант абака. Опытный пользователь мог легко и точно выполнить на нем любое арифметическое действие. Примерно в 1950-х гг. японский абак удалось преобразовать в механический ручной калькулятор.
Мечта становится явью?
К XXI в. изобретение компьютеров и широкое распространение и доступность интегральных схем (чипов) дали машинам огромное преимущество. Они могут работать гораздо быстрее, чем человеческий мозг или механические устройства: скорость в миллиарды и триллионы арифметических операций в секунду сейчас воспринимается как должное. Быстрее, чем я наберу эти строки, произведенная IBM Blue Gene/L способна выполнить квадриллион вычислений (операций с плавающей запятой) за секунду. Современные компьютеры к тому же имеют огромные объемы памяти и хранят эквивалент сотен книг так, что любые сведения из них нам доступны практически моментально. Цветные схемы и анимации достигли пика своего качества.
Компьютеры на пьедестале
Ранние машины были более скромными, но и они позволяли сэкономить немало времени и сил. Пожалуй, первым значительным шагом после абака стали кости, или палочки, Непера: набор маркированных палочек, изобретенный Непером перед тем, как он придумал логарифмы. По сути, палочки были универсальными компонентами обычного процесса умножения. И хотя они могли заменить бумагу и карандаш и избавляли от необходимости записывать каждую цифру, они лишь имитировали ручные вычисления.
В 1642 г. Паскаль изобрел действительно механический калькулятор, арифметическую машину, чтобы помочь в подсчетах своему отцу. Устройство выполняло сложение и вычитание, но не умножение и деление. Оно имело восемь вращающихся дисков с числами, т. е. подходило для чисел вплоть до восьмизначных. В последующие десять лет Паскаль создал 50 аналогичных машин, большинство из которых сейчас хранится в музеях.
В 1671 г. Лейбниц придумал схему машины для умножения и собрал ее в 1694 г., заметив: «Негоже достойным людям, как рабы, терять часы над вычислениями, которые легко мог бы выполнить любой, имейся у него нужная машина». Он назвал свое устройство Staffelwalze (ступенчатый счетчик). Основная идея его изобретения широко использовалась последователями.
Автором самого амбициозного проекта вычислительной машины стал Чарльз Бэббидж. По его словам, в 1812 г. он «сидел в помещении Аналитического общества в Кембридже, клюя носом над раскрытыми передо мной таблицами логарифмов. Другой член общества вошел в комнату, увидел, что я вот-вот засну, и воскликнул: “Ну, Бэббидж, и о чем ты тут грезишь?” На что я ответил, кивнув на логарифмы: “Я думаю о том, что все эти таблицы можно было бы вычислить с помощью машины”». Этой мечте Бэббидж следовал до конца жизни, сконструировав прототип машины, названной им разностной. Он пытался получить от правительства помощь на создание более мощных устройств. Его самый амбициозный проект, аналитическая машина, по сути была программируемым механическим компьютером. Ни один такой аппарат не был построен, хотя удалось собрать некоторые его компоненты. Современная реконструкция аналитической машины хранится в Музее науки в Лондоне – и она работает. Большой вклад в труд Бэббиджа внесла Августа Ада Лавлейс, написав первую в мире компьютерную программу для его машины.
Первым калькулятором, поступившим в массовое производство, стал арифмометр, выпущенный Томасом де Кольмаром в 1820 г. В его основе лежал ступенчатый валиковый механизм, и еще в 1920 г. его производство процветало. Следующим принципиальным изменением стал механизм штифтового колеса, изобретенный шведским инженером Вильгодтом Однером. Его калькулятор был прототипом для десятков, если не сотен, аналогичных механизмов, выпускавшихся на множестве фабрик. Движущей силой был сам оператор, крутивший рукоятку и проворачивавший таким образом ряд дисков с цифрами от 0 до 9. Имея определенные навыки, человек мог достаточно быстро выполнять даже самые сложные операции. Во время Второй мировой войны научные и инженерные расчеты для Манхэттенского проекта по созданию первой атомной бомбы производились как раз на таких машинах, управляемых специально отобранным подразделением «вычислителей» – главным образом молодых женщин. Изобретение в 1980-х гг. дешевых и мощных электронных компьютеров моментально вывело механические устройства из игры, но вплоть до этого времени они оставались широко распространенными и востребованными в деловых и научных кругах.
Метод Ньютона для численного решения уравнения
Вычислительные машины выполняли не только простые арифметические действия, поскольку многие научные расчеты могут быть численно реализованы как длинный ряд арифметических операций. Один из первых численных методов, позволявших решать уравнения с достаточно высокой точностью, был изобретен еще Ньютоном и стал известен как метод Ньютона. Он решает уравнение f(x) = 0 с помощью вычисления ряда последовательных приближений к решению, где каждое следующее уточняет предыдущее, но основано на нем. От некоего начального предположения, обозначим его как х1, улучшаем наши приближения корней x2, x3, …, xn, xn + 1 согласно формуле:
где f – производная от f. Метод основан на геометрии кривой y = f(x) рядом с решением. Точка xn + 1 находится там, где касательная прямая к точке xn пересекается с осью X. Как показано на графике, она ближе к решению – точке x, чем исходная точка.
АВГУСТА АДА КИНГ, ГРАФИНЯ ЛАВЛЕЙС 1815–1852
Августа Ада была дочерью поэта лорда Байрона и Анны Милбенк. Ее родители расстались через месяц после рождения девочки, и она больше никогда не видела отца. Ребенком она уже показала способности к математике; в отличие от своих современников, леди Байрон сочла это отличным упражнением для развития ума своей дочки и поощряла ее в этом увлечении. В 1833 г. Ада познакомилась с Чарльзом Бэббиджем на званом обеде, и очень скоро, побывав на демонстрации его прототипа аналитической машины, девушка нашла ее восхитительной и моментально разобралась в ее устройстве. Она стала графиней Лавлейс, когда в 1838 г. ее муж получил титул графа.
В 1843 г. к своему переводу статьи Луиджи Менабреа «Заметки об аналитической машине Чарльза Бэббиджа» Ада добавила небольшое приложение, впоследствии ставшее образцом программ, разработанных ею собственноручно. Она писала, что «отличительной особенностью аналитической машины… является использование в ней принципа управления с помощью перфокарт, изобретенного Жаккардом для изготовления самых сложных узоров для парчовых тканей. Можно сказать, что аналитическая машина сплетает алгебраические формулы так же, как ткацкий станок Жаккарда – цветы и листья».
В 36 лет у женщины развился рак матки, и после долгих мучений она умерла от кровопускания на руках у своих врачей.
Вторым важным приложением численных методов стало решение дифференциальных уравнений. Предположим, мы решаем уравнение
и нам дано, что x = x0 в момент времени t = 0. Согласно Эйлеру, простейший способ – аппроксимация dx/dt с помощью
где очень мала. Тогда аппроксимация дифференциального уравнения принимает вид:
x(t + ) = x(t) + f(x(t)).
Начиная с x(0) = x0 мы последовательно найдем значения f(), f(2), f(3) – в общем, f(n) для любого целого n > 0. Обычное значение , скажем, 10–6. Миллион итераций (повторов) формулы покажет x(1), следующий миллион x(2) и т. д. Для современных компьютеров миллион вычислений – пустяк, и это уже вполне практичный метод.
Однако метод Эйлера оказался слишком прост для ученых, и пришлось изобрести множество улучшений. Самым известным стал целый класс методов Рунге – Кутты, названный в честь немецких математиков Карла Рунге и Мартина Кутты, впервые предложивших их в 1901 г. Один из них, так называемый метод Рунге – Кутты четвертого порядка, широко используется в инженерии, прикладной и теоретической математике.
Нужды современной нелинейной динамики породили несколько сложнейших методов, позволяющих избежать накопления ошибок даже в длительных временных периодах, которые сохраняют определенную структуру, связанную с точным решением. Например, в механической системе без трения полная механическая энергия сохраняется. И есть возможность настроить численный метод так, чтобы на каждом шагу энергия сохранялась точно. Такая процедура исключает риск, что вычисленное решение будет мало-помалу отклоняться от точного, подобно тому как маятник постепенно останавливается, теряя энергию.
ЧТО ЧИСЛЕННЫЕ МЕТОДЫ ДАЛИ ИМНьютону не только пришлось разобраться в природе вычислений – ему удалось изобрести эффективные методы вычислений. Он широко внедрил степенные ряды для описания функций, потому что научился дифференцировать и интегрировать эти ряды одно выражение за другим. Он также использовал их для вычисления значения функций, создав один из ранних численных методов, который используется до сих пор. На одной из страниц его манускриптов, датируемой 1665 г., показано численное определение площади под гиперболой, которую мы теперь распознаем как логарифмическую функцию. Он исследовал свойства бесконечных рядов, вычислив их суммы с поразительной точностью, до 55-го десятичного знака после запятой.
Ньютоновский расчет площади под гиперболой
Более сложные структуры – симплектические интеграторы, с помощью которых решаются дифференциальные уравнения механических систем с высокой точностью, сохраняя симплектическую структуру гамильтоновых уравнений. Это любопытная, но чрезвычайно важная разновидность геометрии, адаптированная для двух типов переменных, положения и импульса. Симплектические интеграторы особенно важны для исследований небесной механики, где – например – астрономы могут захотеть отследить движения планет Солнечной системы на протяжении миллиардов лет.
Используя симплектические интеграторы, Джек Уиздом, Жак Ласкар и другие ученые показали, что в длительных временных периодах поведение Солнечной системы хаотично, Уран и Нептун были гораздо ближе к Солнцу, чем сейчас, и в настоящее время орбита Меркурия смещается в сторону Венеры, так что одна из этих планет в итоге может оказаться вытесненной из Солнечной системы. Только симлектические интеграторы дают нам достаточную уверенность в том, что результаты для такого длительного промежутка точы.
Компьютерам нужна математика
Компьютеры помогают в математике, но и использование математики помогает компьютерам. Математические принципы были важным условием для работы ранних вычислительных устройств – как в плане доказательства самой концепции, так и в конструировании самих машин.
Все современные цифровые компьютеры работают на двоичной системе, где числа представляются последовательностями всего двух цифр: 0 и 1. Главное преимущество двоичной системы – в ее соответствии переключению: 0 – выключено, 1 – включено. Или 0 – нет напряжения, а 1 – это пять вольт или какой-то иной вариант, используемый в схеме проектирования. Символы 0 и 1 могут также быть интерпретированы в рамках математической логики как значения истинности: 0 означает ложь, 1 – истина. Иными словами, компьютеры могут выполнять логические вычисления так же, как и арифметические. Конечно, логические операции здесь базовые, а арифметические можно рассматривать как последствия логических. Алгебраический подход Буля к математике 0 и 1, изложенный в его «Исследовании законов мышления», обеспечивает эффективный формализм для логики компьютерных вычислений. Поисковые системы интернета выполняют булевы логические запросы: ищут ответы, определенные некоторой комбинацией логических критериев, такие как «содержит слово “кошка”, но не содержит слово “собака”».
Алгоритмы
Математика внесла свой вклад в компьютерную науку, но и компьютерная наука подтолкнула к открытию поразительной новой математики. По одному из определений, алгоритм – систематический порядок действий для решения задачи. Это слово восходит к арабскому ученому Аль-Хорезми. И тут возникает любопытный вопрос: как зависит время работы алгоритма от объема вводимых данных?
Например, алгоритм Евклида для нахождения наибольшего общего делителя двух целых чисел m и n, где m n, выглядит так.
• Разделить n на m и получить остаток r.
• Если r = 0, то наибольший общий делитель – m: СТОП.
• Если r > 0, тогда заменить n на m, а m на r и вернуться к началу.
Можно показать, что если m включает d десятичных цифр (мера объема вводимых данных для алгоритма), то алгоритм останавливается максимум после 5d шагов. Это значит, в частности, что если нам заданы два числа с 1000 цифр, то мы можем вычислить их наибольший общий делитель не более чем за 5000 шагов – на что современному компьютеру требуется доля секунды.
Алгоритм Евклида имеет линейное время работы – продолжительность вычислений, пропорциональную объему (в цифрах) вводимых данных. В более широком смысле алгоритм имеет полиномиальное время работы, или относится к классу P, если его время работы пропорционально некой фиксированной степени (квадрат или куб) от объема вводимых данных. В противоположность этому все известные алгоритмы для нахождения простых множителей числа имеют экспоненциальное время работы – некую фиксированную константу в степени, зависящей от объема вводимых данных. Это и делает (гипотетически) безопасной криптосистему RSA.
Проще говоря, алгоритмы с полиномиальным временем работы применяются на практике в вычислениях на современных компьютерах, а алгоритмы с экспоненциальным временем работы – нет, и соответствующие подсчеты для них на практике произвести невозможно, даже для относительно малых объемов вводимых данных. Это отличие является эмпирическим правилом: полиномиальный алгоритм может иметь такую большую степень, что будет непрактичным, и некоторые алгоритмы со временем работы, худшим, чем полиномиальное, всё равно на поверку оказываются полезными.
Тут возникает главная теоретическая трудность. Если взять определенный алгоритм, для него можно довольно легко подсчитать, как его время работы зависит от объема вводимых данных, и определить, относится он к классу P или нет. Но невероятно трудно решить, существует ли более эффективный алгоритм, который быстрее решит ту же задачу. Итак, хотя мы знаем, что многие задачи способен решить алгоритм класса P, мы понятия не имеем о том, не относится ли любая серьезная задача к классу не-P.
Здесь полезно вспомнить о технической интерпретации. Некая проблема должна быть не-P просто потому, что для получения ответа требуется не-P время работы. Например, нам надо составить список всех возможных способов расставить по порядку n символов. Чтобы работать с такой явно не-P проблемой, нужна другая концепция: класс NP недетерминированных полиномиальных алгоритмов. Алгоритм относится к классу NP, если любой предполагаемый ответ можно проверить за время, пропорциональное некоторой фиксированной степени, зависящей от объема вводимых данных. Например, угадав простой множитель большого числа, мы легко можем проверить его одним делением.
Задача из класса P автоматически является задачей из класса NP. Многие важные задачи, для которых неизвестны P-алгоритмы, имеют такие алгоритмы в NP. Мы подошли к самой серьезной и сложной проблеме в данной области, за решение которой объявлена премия в миллион долларов Математическим институтом Клея. Являются ли классы P и не-P одним и тем же? Самым правдоподобным ответом кажется «нет», поскольку P = NP означает, что многие из считавшихся чрезвычайно сложными вычислений на самом деле легки – просто мы пока не нашли упрощающих их преобразований.
ЧТО ЧИСЛЕННЫЕ МЕТОДЫ ДАЮТ НАМЧисленные методы играют центральную роль в проектировании современных воздушных судов. Совсем недавно инженерам приходилось конструировать аэродинамические трубы, чтобы проверить, как поток воздуха будет обтекать проектируемые ими крылья и фюзеляжи. Они помещали в такую трубу модель своего самолета, с помощью вентилятора нагнетали поток воздуха и следили, что происходит. Уравнения Навье – Стокса позволяли делать разные теоретические догадки, но не могли применяться к реальным воздушным судам, имевшим слишком сложные формы.
Численный расчет обтекания воздухом движущегося самолета
Сегодняшние компьютеры настолько мощны, а численные методы для решения ДУЧП стали такими эффективными, что во многих случаях реальная аэродинамическая труба уступает место цифровой – компьютерной модели самолета. Уравнения Навье – Стокса так точны, что их можно без опаски использовать при таком подходе. Преимущество компьютерного моделирования в том, что любая мыслимая особенность воздушного потока может быть визуализирована и проанализирована.
Проблему «P = NP?» усугубляет загадочный феномен, получивший название NP-полной задачи. Многие задачи NP таковы, что если они действительно сводятся к классу P, то и любая другая задача из NP сводится к классу P. Такая задача и называется NP-полной. Если для конкретной NP-полной задачи может быть доказано, что она является P, то P = NP. А если для некоторой NP-полной задачи может быть доказано, что она не-P, то P – не то же, что NP. Одной из NP-полных задач, недавно привлекшей внимание ученых, была задача, связанная с популярной компьютерной игрой «Сапер». В математической интерпретации она известна как задача выполнимости булевых формул: есть некое высказывание математической логики; будет ли оно истинным, если присвоить значения «истина» или «ложь» ее переменным?
Численные методы
Математика – далеко не одни вычисления, хотя они являются неотъемлемой частью более концептуальных исследований. С ранних времен математики не прекращали поиск механических приспособлений, способных освободить их от скучных, рутинных вычислений и повысить точность полученных результатов. Ученые прошлого позавидовали бы нашему доступу к электронным компьютерам и подивились бы их скорости и точности.
Вычислительные машины – не просто «обслуживающий персонал» для математиков. Их проектирование работа с ними поставили перед учеными новые теоретические вопросы. Последние варьируют от обоснования приближенных численных методов решения уравнений до более глубоких аспектов основ вычислений.
К началу XXI в. математики получили доступ к мощному программному оборудованию, позволяющему совершать не только численные расчеты, но и алгебраические и даже аналитические. Эти инструменты открывают новые области, помогают решить давние проблемы и освободить время для глубоких теоретических раздумий. В результате сама математика стала богаче как наука, а ее применение на практике заметно расширилось. У Эйлера было всё теоретически необходимое для изучения протекания потока вокруг сложных форм, и хотя в то время еще не было изобретено воздухоплавание, ученые исследовали многие занимательные вопросы, относящиеся к водным судам. Но у него не было практических методов для полноценной технической реализации своих задумок.
Еще один аспект развития, пока не упоминавшийся на этих страницах, – использование компьютеров для помощи в поиске доказательств. Несколько важных теорем, доказанных недавно, требовали огромного объема рутинных вычислений, легко выполненных компьютерами. Есть мнение, что доказательства, полученные с помощью компьютеров, искажают саму фундаментальную природу доказательства, противореча условию, что оно может быть проверено только человеческим разумом. Это утверждение противоречиво, но даже если оно истинно, плоды технического прогресса в любом случае превратили математику в еще более надежного помощника человеческой мысли.
Глава 20. Хаос и сложность
К середине XX в. математика вступила в фазу стремительного роста благодаря ее активному применению на практике и появлению новых мощных методов. Достоверная история современной математики займет не меньше места, чем перечисление всех ее предшествовавших достижений. Остается выбрать лишь самые выразительные примеры, чтобы показать, что математики по-прежнему отличаются оригинальностью и творческим мышлением. Одной из таких тем, привлекавших пристальное внимание широкой публики в 1970–1980-х гг., является теория хаоса (так называют СМИ нелинейную динамику). Другая тема – сложные системы, требующие менее ортодоксального образа мышления и рождающие не только новые разделы математики, но и новые области науки.
Хаос
Вплоть до 1960-х гг. у слова «хаос» было лишь одного значение – бесформенный беспорядок. Но с того времени открытия в фундаментальных науках и математике наделили его вторым, более отвлеченным значением: сочетание аспектов беспорядка с аспектами формы. Ньютоновские «Начала» упростили систему мира до дифференциальных уравнений, и это был детерминизм Нового времени. Подразумевалось, что если известно исходное состояние системы, ее будущее определено однозначно и навсегда. С точки зрения Ньютона, Вселенная работала как часы, приведенные в движение рукой творца и с тех пор идущие по одному неизбежному пути. Такой подход не оставлял пространства для свободы воли, и в нем могла крыться одна из причин ранних убеждений, что наука – нечто холодное и даже бесчеловечное. Но эта же точка зрения хорошо послужила человечеству, дав нам радио, телевидение, радары, мобильные телефоны, воздушные перевозки, спутники связи, искусственные волокна, пластмассы и компьютеры.
Рост научного детерминизма сопровождался смутной, но глубоко укоренившейся верой в сохранение сложности. Привычное убеждение, что простые причины должны рождать простые эффекты, предполагает, что у сложных эффектов наверняка есть не менее сложные причины. Из-за этого убеждения при взгляде на сложный объект или систему в нашем мире мы сразу начинаем гадать, откуда взялась такая сложность. В чем причины, например, сложности жизни в целом, если исходить из того, что она появилась на мертвой планете? Мы очень редко догадываемся, что сложность может появиться сама по себе, но именно это показывают нам новейшие математические методы.
Единая формула?
Детерминированность законов физики следует из простого математического факта: для любого дифференциального уравнения с заданными начальными условиями существует не более одного решения. В романе Дугласа Адамса «Автостопом по галактике» суперкомпьютер Думатель на протяжении пяти миллионов ведет вычисления ради ответа на великий вопрос жизни, Вселенной и всего сущего и с триумфом получает ответ: 42. Этот эпизод – пародия на знаменитое утверждение, в котором Лаплас выразил математическую точку зрения на детерминизм.
Разум, который для какого-то данного момента знал бы все силы, действующие в природе, и относительное расположение ее составных частей, если бы он, кроме того, был достаточно обширен, чтобы подвергнуть эти данные анализу, объял бы в единой формуле движения самых огромных тел во Вселенной и самого легкого атома; для него не было бы ничего неясного, и будущее, как и прошлое, было бы у него перед глазами.
И тут же он одной фразой обрушивает читателей с небес на землю:
Человеческий разум способен представить лишь бледную тень этого совершенного замысла, наблюдаемого в астрономии.
Ирония в том, что именно изучение небесной механики, всегда считавшейся самой детерминированной областью физики, и положило конец жесткому детерминизму Лапласа. В 1886 г. король Швеции Оскар II (правивший также в Норвегии) объявил награду за решение задачи устойчивости Солнечной системы. Будет ли наш клочок великого часового механизма Вселенной тикать вечно, либо какой-то планете суждено рухнуть на Солнце или вовсе убежать в межзвездное пространство? Любопытно, что физические законы сохранения энергии и импульса не отрицали возможности обоих вариантов, но можно ли было пролить свет на более детальное описание Солнечной системы?
Пуанкаре был твердо намерен получить эту премию, и для начала он решил упростить задачу, рассмотрев движения трех небесных тел. Уравнения для трех тел были не намного сложнее, чем для двух, и почти не отличались по форме. Однако разминка с тремя телами оказалась на поверку крепким орешком и привела к весьма тревожному открытию. Решения таких уравнений оказались совершенно не похожи на решения для двух тел. Они были настолько сложными, что для них не удавалось записать математические формулы. Более того, Пуанкаре достаточно хорошо разбирался в геометрии – а именно в топологии – этих решений, чтобы доказать без тени сомнений, что движения, представленные в этих решениях, могут время от времени становиться беспорядочными и нерегулярными. «Можно только поражаться, – писал он, – сложностью этого рисунка, который я даже не дерзаю попытаться изобразить. Ничто не может сильнее убедить нас в величайшей сложности проблемы трех тел». Сейчас эта сложность считается классическим примером хаоса.
ПРОСЧЕТ ПУАНКАРЕДжун Барроу-Грин, изучавшая архивы Института Миттаг-Леффлера в Стокгольме, недавно раскопала скрытую до поры довольно неприятную историю. В работе Пуанкаре, получившей когда-то королевскую премию, содержалась серьезная ошибка. Вопреки всеобщему мнению, ученый был далек от открытия хаоса, напротив, заявлял, будто доказал, что такового не существует. В оригинале его работы есть доказательство того, что все движения в задаче о трех телах регулярны и предсказуемы.
Уже получив премию, Пуанкаре запоздало обнаружил свою ошибку и тут же понял, что она полностью дискредитирует его доказательство. Но удостоенная награды статья уже была опубликована в одном из номеров институтского журнала. Номер успели изъять, и Пуанкаре за свой счет перепечатал его – уже с описанием гомоклинических петель, которые мы сейчас называем хаосом. Это обошлось ему в значительно большую сумму, чем премия. Удалось отозвать практически все экземпляры ошибочной версии работы, но одна ускользнула из его сетей и сохранилась в архиве института.
Его работа получила премию короля Оскара II, хотя в ней и не было окончательного решения проблемы. Примерно 60 годами позже она стала важнейшим толчком для изменения наших взглядов на Вселенную и ее связь с математикой.
В 1926–1927 гг. голландский инженер Балтазар ван дер Пол сконструировал электронную схему для создания математической модели сердца и обнаружил, что в определенных условиях возникающие колебания становятся не периодическими, как полагается сердцу, а нерегулярными. Его работа получила солидное математическое обоснование во время Второй мировой войны в исследовании Джона Литлвуда и Мэри Картрайт, посвященной радарам. Но прошло еще 40 лет, прежде чем стало ясно истинное значение этих открытий.
Нелинейная динамика
В начале 1960-х гг. американский математик Стивен Смэйл открыл новую эру в теории динамических систем, собравшись разработать полную классификацию типичных образцов поведения электронных схем. Изначально ожидая получить в ответе некие комбинации периодических движений, он очень быстро понял, что здесь возможно гораздо более сложное поведение. В частности, он развил открытое Пуанкаре сложное движение в ограниченной задаче трех тел, создав упрощенную геометрию для описания системы, получившей название подковы Смэйла. Он доказал, что система подковы, хоть и детерминированная, обладает некоторыми случайными чертами поведения. Другие примеры подобных явлений были открыты представителями американской и советской школ теоретических динамических систем. Самый значительный вклад внесли Александр Шарковский и Владимир Арнольд, благодаря чему появилась общая теория. Термин «хаос» предложили Джеймс Йорк и Тьен-Йен Ли в 1975 г. в краткой статье, упростившей один из результатов советской школы – теорему Шарковского (1964) с описанием любопытной закономерности в периодических решениях дискретной динамической системы – той, где время движется отдельными шагами, а не непрерывно.
Тем временем описания хаотичных систем то и дело появлялись в научной литературе – и снова были сильно недооценены научным сообществом. Самое известное из них дал в 1963 г. метеоролог Эдвард Лоренц. Он создал модель атмосферной конвекции, аппроксимировав очень сложные уравнения для этого явления с помощью более простых с тремя переменными. Решая их численно на компьютере, он открыл, что решение колебалось нерегулярным, почти случайным образом. Он также открыл, что если те же самые уравнения решались с использованием исходных значений переменных, отличавшихся друг от друга незначительно, разница в решениях увеличивалась, пока они не становились абсолютно разными. Его описание для этого явления в последующих лекциях открыло очень популярную в настоящее время тему – эффект бабочки, когда взмаха крыльев бабочки оказалось достаточно, чтобы через месяц из-за него разразился ураган на другой стороне планеты.
Аттрактор Лоренца
Этот жутковатый сценарий вполне возможен, хотя и с малой вероятностью. Предположим, вы могли бы повлиять на погоду дважды: один раз с бабочкой и второй – без нее. Тогда вы действительно получите значительные различия, и вполне возможно, что в первом случае это будет ураган, а во втором обойдется без него. Понятно, что этот эффект был получен при компьютерном моделировании уравнений, обычно используемых для предсказаний погоды, где он способен создать большие проблемы. Но было бы ошибкой считать, что бабочка и есть причина урагана. В реальном мире погоду формирует не одна бабочка, а статистические особенности триллионов бабочек – не считая иных неуловимых факторов. И только все вместе они определяют, когда и где зародится очередной ураган и куда он двинется.
Используя методы топологии, Смэйл, Арнольд и их коллеги доказали, что странные решения, смущавшие Пуанкаре, оказываются неизбежным следствием странных аттракторов в уравнениях. Странный аттрактор – запутанное движение, к которому система неизбежно приходит. Его можно наглядно представить в виде очертаний в пространстве состояний (которое отражает изменение состояний системы), образованном переменными, которые описывают систему. Аттрактор Лоренца, описывающий уравнения Лоренца, немного похож на маску Одинокого рейнджера, только каждая из ее кажущихся поверхностей имеет бесконечно много слоев.
Сама структура аттракторов объясняет любопытную особенность хаотичных систем: они предсказуемы в кратком периоде (в отличие, например, от бросков костей), но непредсказуемы в длительном. Почему невозможно несколько краткосрочных предсказаний объединить вместе для создания долгосрочного? Потому что точность, с которой мы можем описать хаотичную систему, размывается со временем, и чем дальше, тем быстрее, и возникает такой горизонт для предсказаний, за который мы не в состоянии заглянуть. Тем не менее система остается на том же странном аттракторе – хотя ее траектория вдоль аттрактора существенно меняется.
Это изменяет наш взгляд на эффект бабочки. Насекомые могут только подталкивать погоду по одному и тому же странному аттрактору, и это всегда вполне правдоподобная погода. Она лишь слегка отличается от того, что могло бы быть без бабочек.
Давид Рюэль и Флорис Такенс очень быстро нашли потенциальное применение странным аттракторам в физике: обескураживающая проблема турбулентных течений. Стандартные уравнения потока жидкости, известные как уравнения Навье – Стокса, являются дифференциальными в частных производных и как таковые детерминированы. Обычный тип потока жидкости, с ламинарным (струйчатым) течением, – гладкий и постоянный, точно такой, как вы могли бы ожидать от детерминированной теории.
МЭРИ ЛЮСИ КАРТРАЙТ 1900–1998
Когда Мэри Картрайт в 1923 г. закончила Оксфордский университет, она стала пятой женщиной, получившей здесь диплом математика. Недолго поработав преподавателем, она защитила докторскую диссертацию в Кембридже. Хотя официально ее руководителем считался Годфри Харди, на самом деле она работала с Эдвардом Титчмаршем, поскольку Харди в то время был занят в Принстоне. Темой ее диссертации был комплексный анализ. В 1934 г. она была назначена младшим преподавателем в Кембридже и в 1936 г. стала руководителем научного направления в Гиртон-колледже.
В 1938 г. в сотрудничестве с Джоном Литлвудом она выполняла заказ Департамента научных и промышленных исследований по дифференциальным уравнениям, необходимым для работы радаров. Ученые открыли, что решения этих уравнений чрезвычайно сложны; это были первые предвестники такого явления, как хаос. Благодаря этой работе Картрайт в 1947 г. стала первой женщиной, избранной членом Королевского общества. В 1948 г. она получила пост главы Гиртона и с 1959 по 1968 г. читала лекции в Кембридже. Она была удостоена многих наград, а в 1969 г. стала дамой-командором ордена Британской империи.
А вот другой тип потока, турбулентный, вовсе не такой ровный: он нерегулярный и едва ли не случайный. Предыдущие теории описывали турбулентный поток либо как особенно сложную комбинацию из слагаемых, каждое из которых очень простое и регулярное само по себе, либо как искаженные турбулентным режимом уравнения Навье – Стокса. Однако Рюэль и Такенс выдвинули третью теорию. Они предположили, что турбулентность есть физическое проявление странного аттрактора.
Поначалу эта теория вызвала изрядный скептицизм, но сейчас мы уже знаем, что она верна по сути, хотя некоторые ее детали вызывают вопросы. Последовали другие успешные ее применения, и слово «хаос» стало признанным названием для такого поведения.
Теоретические монстры
Пора обратить внимание на вторую тему этой главы. В 1870–1930 гг. многие математики независимо друг от друга увлеклись изобретением невозможных форм с единственной целью доказать ограниченность классического анализа.
На самых ранних порах развития исчисления математики пришли к выводу, что всякая непрерывная изменяющаяся величина почти везде должна иметь вполне определенный темп изменения. Например, предмет, непрерывно движущийся в пространстве, имеет четко определенную скорость, за исключением относительно редких моментов, когда она резко меняется. Однако в 1872 г. Карл Вейерштрасс доказал, что это давнишнее утверждение неверно. Предмет может двигаться непрерывно, но так нерегулярно, что его скорость будет резко меняться в любой момент. Это значит, что на самом деле он не имеет разумной скорости вообще.
Стадии построения кривой Гильберта, заполняющей пространство, и треугольник Серпинского
Следующим вкладом в этот странный набор аномалий стали кривые, заполняющие всю область пространства (одну открыл Пеано в 1890 г., другую Гильберт в 1891-м), кривая, пересекающая саму себя в каждой точке (открыта Вацлавом Серпинским в 1915 г.), и кривая бесконечной длины, заключенная в конечной области. Последний пример геометрической странности, открытый в 1906 г. Хельге фон Кохом, получил название кривой-снежинки, и вот как ее можно получить. Нужно взять равносторонний треугольник и добавить к нему треугольные выступы ровно посередине каждой стороны (так, чтобы их основание занимало треть длины стороны), при этом убирая основание каждого выступа, чтобы в итоге получилась шестиконечная звезда. Затем добавить меньшие выступы в середине каждой из 12 сторон и так далее до бесконечности. Из-за шестикратной симметрии в результате получится форма безупречной снежинки. Правда, в природе снежинки растут по иным правилам, но это уже другая история.
Снежинка Коха
Математический мейнстрим тут же провозгласил эти курьезы «патологиями» из «собрания монстров», но с годами число таких возмутительных «курьезов» только росло и уже не могло игнорироваться научным сообществом: точка зрения одиночек дала свои плоды. Логика, скрытая в анализе, так тонка, что очень велика опасность соскользнуть к ошибочным выводам: подобного рода монстры предупреждают нас о том, что что-то не так. Итак, к началу века математики уже успели смириться с собранием этих странных изобретений. Они относились к этому исключительно как к чистой теории, которая не имеет каких-либо практических приложений. Тот же Гильберт в 1900-х гг. мог отзываться обо всей математике как о рае, не опасаясь шквала критики.
Только в 1960-х, вопреки всем ожиданиям, галерея теоретических монстров начала применяться в прикладной науке. Бенуа Мандельброт открыл, что эти нелепые кривые – первые ключи к ожидающей открытия теории самоподобных множеств в природе. Он дал им название «фракталы». До этого ученым вполне хватало традиционных геометрических форм вроде прямоугольников и сфер, но Мандельброт настаивал, что такой подход слишком ограничен. Окружающий мир насыщен сложными и нерегулярными структурами: береговыми линиями, горами, облаками, деревьями, ледниками, речными системами, океанскими волнами, кратерами вулканов, цветной капустой, о которых традиционная геометрия ничего сказать не может. Необходима новая геометрия природы.
Сейчас ученые приняли фракталы как вполне естественный способ мышления, как и их предшественники в конце XIX в., признав нелепые формы, изобретенные их коллегами. Вторая часть статьи «Атмосферная диффузия на дистанционном графе ближайших соседей» Льюиса Фрая Ричардсона от 1926 г., посвященная исследованиям атмосферы, вышла под заголовком «Есть ли скорость у ветра?». Сейчас это кажется вполне резонным вопросом. Движения слоев атмосферы турбулентны, турбулентность – фрактал, а фракталы могут вести себя как монструозная функция Вейерштрасса: двигаться непрерывно, но не иметь определенной скорости. Мандельброт находил примеры фракталов как в многочисленных областях науки, так и за ее пределами: форма дерева, ветвящаяся дельта реки, колебания цен на рынке.
Хаос повсюду!
Странные аттракторы математиков, рассматриваемые с точки зрения геометрии, на поверку оказались фракталами, и два направления научной мысли сплелись в новую отрасль, известную нам как теория хаоса.
Хаос можно найти практически в любой области науки. Джек Уиздом и Жак Ласкар открыли, что динамика Солнечной системы хаотична. Нам известны все уравнения, массы и скорости, необходимые для предсказания всех движений в вечности, но есть горизонт предсказаний примерно в 10 млн лет из-за хаоса в динамике. Если вам захочется узнать, по какую сторону от Солнца окажется Плутон через 10 млн лет, – лучше и не мечтайте. Те же астрономы доказали, что лунные приливы стабилизируют Землю от воздействий, которые иначе привели бы к хаотичному движению с моментальными сменами климата от жарких периодов к ледниковым и обратно. Так теория хаоса показывает, что без Луны Земля превратилась бы в весьма неприятное место для жизни.
Хаос возникает почти в любой математической модели биологических популяций, и последние эксперименты (где жуков разводят в контролируемых условиях) доказывают, что он отражает реальные законы существования популяций. Экосистемы в природе не достигают сбалансированного состояния сами по себе: они мечутся вдоль странных аттракторов, как правило кажущихся очень знакомыми на первый взгляд, но всегда разных. Наша неспособность разобраться в этих тончайших механизмах регуляции экосистем – одна из причин того, что мы истощили мировые запасы рыбы.
Cложность
От хаоса самое время перейти к сложности. Большинство проблем, с которыми пришлось столкнуться современной науке, поражают своей необычайной сложностью. Чтобы управлять жизнью кораллового рифа, леса или запасами рыбы в океане, необходимо понимать нюансы экосистемы, в которой вроде бы безобидные изменения могут вызвать неожиданные проблемы. Реальный мир настолько сложен и так неохотно поддается измерению, что традиционные способы моделирования тут практически неприменимы, а проверить их еще труднее. В ответ на этот вызов всё больше ученых убеждается в том, что для описания реального мира нам необходимы фундаментальные изменения в том, как мы моделируем наш мир.
В начале 1980-х гг. Джордж Кован, бывший глава исследовательского центра в Лос-Аламосе, решил, что один из способов двигаться вперед лежит в области развития теорий нелинейной динамики. Здесь незначительные факторы могут породить мощные эффекты, жесткие правила – привести к анархии, привычные предметы – обрести невероятные свойства. Иными словами, здесь есть всё, что характерно для реального мира. Но достаточно ли этих сходств для того, чтобы добиться истинного понимания законов природы?
ЧТО НЕЛИНЕЙНАЯ ДИНАМИКА ДАЛА ИМПока нелинейная динамика не стала главной темой в научном моделировании, ей отводилась в основном теоретическая роль. Самой известной работой стало исследование Пуанкаре для задачи трех тел в небесной механике. Оно предсказало существование чрезвычайно сложных орбит, однако не помогло понять, как они выглядят. Главной целью работы было доказать, что у простых уравнений может не быть простых решений – что сложность не закладывается изначально, а может иметь простой источник.
Современные компьютеры могут вычислить сложные орбиты для задачи трех тел
Кован высказал идею о целесообразности создания нового научно-исследовательского института для междисциплинарных исследований и развития нелинейной динамики. Его поддержал Марри Гелл-Ман, нобелевский лауреат по физике элементарных частиц. В 1984 г. они создали объединение, позже названное Институтом Рио-Гранде. Сейчас он известен как Институт Санта-Фе, международный центр по изучению сложных систем. Теория сложности уже стала источником новейших математических методов и подходов с использованием компьютеров для создания цифровых моделей природы. Благодаря машинам ученые анализируют эти модели и открывают потрясающие свойства сложных систем. И они используют нелинейную динамику и другие области математики, чтобы понять, что выдают им компьютеры.
Клеточный автомат
В одном из видов новых математических моделей, известном как клеточный автомат, такие объекты, как деревья, птицы или белки, воплощаются в виде маленьких разноцветных ячеек. Они взаимодействуют с соседними ячейками в математической компьютерной игре. Но их простота обманчива: такие игры занимают передовой край современной науки.
Клеточный автомат получил признание в 1950-х гг., когда Джон фон Нейман старался понять способность живых организмов к самовоспроизведению. Станислав Улам предложил воспользоваться системой, открытой пионером компьютеростроения Конрадом Цузе еще в 1940-х. Представьте вселенную, состоящую из огромной решетки квадратов, названных ячейками, вроде гигантской шахматной доски. В любой момент любой квадрат может существовать в определенном состоянии. На этой доске-вселенной действуют все законы природы, описывающие, как именно должно меняться состояние каждой ячейки в следующий миг. Изменения состояния удобно представлять разными цветами. Тогда правила можно выразить так: если ячейка красная, а рядом с нею две синих, она должна стать желтой. Любая система такого рода называется клеточным автоматом: клеточным из-за строения, автоматом из-за слепого подчинения предписанным правилам.
Чтобы смоделировать фундаментальные особенности живых существ, фон Нейман создал конфигурацию ячеек, способных воспроизводиться – создавать копии себя. Потребовалось 200 тыс. ячеек и 29 разных цветов для алгоритмического описания всей системы. Она может слепо копироваться и использоваться в качестве шаблона для новых конфигураций того же типа. Фон Нейман не публиковал свою работу до 1966 г.: к этому времени Крик и Уотсон уже успели открыть структуру ДНК, и стало ясно, как на самом деле жизнь воспроизводит этот цикл репликации. Клеточный автомат пребывал в забвении еще 30 лет.
Клеточный автомат
Однако к 1980-м гг. стал расти интерес к системам, состоящим из большого количества простых частей, которые, взаимодействуя, способны производить сложное целое. Традиционно считалось, что математическая модель системы будет тем лучше, чем больше исходных данных удастся в нее включить. Но такой высокодетализированный подход оказался бесполезным для очень сложных систем. Предположим, например, что вы хотите смоделировать рост популяции кроликов. Вам нет нужды включать в модель ни длину кроличьей шерсти, ни длину ушей, ни особенности их иммунитета. Вам необходимо лишь несколько основных фактов о каждом животном: возраст, пол, беременная самка или нет. Только так вы сможете ориентировать ресурсы своего компьютера на то, что действительно важно.
И для такого рода систем клеточный автомат оказался чрезвычайно эффективным. Он позволяет игнорировать бесполезные детали, касающиеся отдельных компонентов, и вместо этого фокусироваться только на том, как они взаимодействуют. Это оказался прекрасный способ выяснить, какие факторы действительно важны, и приоткрыть завесу тайны над тем, почему сложные системы делают то, что они делают.
Геология и биология
Сложной системой, бросающей вызов традиционной технике моделирования, является процесс формирования речных бассейнов и устья реки. Питер Барроу использовал клеточный автомат, чтобы объяснить, почему эти природные объекты выглядят именно так, как выглядят. Автоматы моделируют взаимодействие между водой, берегами и донными отложениями. Результат объясняет, как разная скорость эрозии почвы влияет на форму русла и как реки вымывают почву, – крайне важные вопросы для речной инженерии и управления. Высказанные здесь идеи также заинтересовали нефтедобывающие компании, поскольку нефть и газ часто обнаруживают в геологических пластах, некогда бывших донными отложениями.
Другой отличный пример приложения клеточного автомата дает нам биология. Ганс Мейнхардт использовал его для моделирования образования узоров на шкуре животных, от раковин моллюсков до зебр. Ключевым фактором оказывается концентрация определенных химических веществ. Взаимодействия – реакции внутри отдельной клетки и диффузия между соседними клетками. Два вида взаимодействия в сочетании создают правила для последующего формирования узора. Результаты показали те закономерности активации и подавления, которые включают и выключают ответственные за синтез пигментов гены во время развития каждого организма.
Стюарт Кауфман применил множество методов теории сложности для проникновения в другую загадку биологии – формирование индивидуального организма. Рост организма неизбежно включает множество законов развития, и это не может быть простым переводом в органическую форму информации, зашифрованной в ДНК. Самым перспективным направлением стало описание развития как сложной нелинейной динамической системы.
Клеточные автоматы сейчас стали признанным методом исследования, с ними связывают даже надежду на открытие новой теории происхождения жизни. Изобретенный фон Нейманом автомат самовоспроизведения чрезвычайно необычен, тщательно продуман для копирования одной очень сложной начальной конфигурации. Типичное ли это поведение для самовоспроизводящегося автомата, или мы можем увидеть, как самовоспроизведение начнется без обязательной и весьма специфической начальной конфигурации? В 1993 г. Чуи-Хсиен Чу и Джеймс Реггиа изобрели клеточный автомат с 29 состояниями, для которого случайно выбранное исходное состояние, или зародышевый бульон, породило самовоспроизводящиеся структуры более чем в 98 % случаев. В таком автомате самовоспроизводящиеся объекты становятся виртуальной сущностью.
Сложные системы поддерживают точку зрения, согласно которой на безжизненной планете с достаточно сложным химическим составом есть вероятность спонтанного зарождения жизни, способной самостоятельно организоваться в более сложные и изощренные формы. Остается лишь понять, какие правила необходимы для спонтанного появления самовоспроизводящихся конфигураций в нашей Вселенной, – иными словами, какие физические законы сделали этот первый судьбоносный шаг к появлению жизни не просто возможным, а неизбежным.
ЧТО НЕЛИНЕЙНАЯ ДИНАМИКА ДАЕТ НАМНа первый взгляд может показаться, что хаос не имеет практического приложения из-за своей нерегулярности, непредсказуемости и высокой чувствительности к самым незначительным воздействиям. Но из-за того, что в основе хаоса лежат детерминированные законы, он оказывается очень даже полезным именно в силу этих обстоятельств.
Одно из важнейших его приложений – управление хаосом. В 1950-е математик Джон фон Нейман предположил, что нестабильность погоды в один прекрасный день может стать ее преимуществом, поскольку есть вероятность, что значительный желаемый эффект может быть достигнут несравнимо ничтожными воздействиями. В 1979 г. Эдвард Бельбруно понял, что такой эффект может быть использован в астронавтике, чтобы космическое судно смогло преодолеть невообразимо большое расстояние с минимальным расходом горючего. Однако полученные таким образом орбиты потребовали бы слишком длительного путешествия – два года от Земли до Луны, например, и НАСА тут же потеряло интерес к новой идее.
Спутник «Генезис», НАСА
В 1990 г. Япония запустила небольшой лунный спутник «Хагоромо», отделившийся от большего спутника «Хитэн», который остался на земной орбите. К сожалению, радиопередатчик на «Хагоромо» испортился, и «Хитэн» фактически стал ненужным. Японцы стремились хотя бы частично спасти миссию своих кораблей, но у «Хитэна» оставалось всего 10 % топлива, необходимого для достижения Луны по стандартной орбите. Один из инженеров вспомнил об идее Бельбруно и попросил его помочь. За десять месяцев «Хитэн» добрался до Луны и вернулся, собирая по пути частицы космической пыли, сохранив половину имевшегося топлива. Со времен этого первого успеха технология использовалась неоднократно, особенно при запуске спутника «Генезис», получившего пробы солнечного ветра, а также миссии ЕКА (Европейского космического агентства) «Смарт-1».
Как мы видим, методы нелинейной динамики стали применяться не только на Земле, но и в космосе. В 1990 г. Селсо Гребоджи, Эдвард Отт и Джеймс Йорк опубликовали фундаментальную работу по теории использования эффекта бабочки в управлении хаотичными системами. Метод применили для синхронизации целого ряда лазеров; для контроля нарушений сердечного ритма (здесь открылась возможность создания разумного кардиостимулятора); для управления электрической активностью мозга (для предотвращения эпилептических припадков); а также для более гладкого движения в турбулентном потоке (со временем это позволит существенно экономить топливо для самолетов).
Как была создана математика
История математики – длинная и причудливая. Первопроходцы в этой науке то совершали гениальные прорывы, то устремлялись по ложным тропам, забредая в тупики, из которых подчас не могли выбраться веками. Но такова судьба любых людей, пытающихся освоить неизведанное. Если бы дальнейший путь был прост и ясен, его мог бы преодолеть любой желающий. Зато в итоге за четыре тысячелетия сложилась та изысканная сложнейшая наука, которую мы называем математикой. Она возникла в сугубо практических целях, и в ней периоды неудержимой активности и роста сменялись временами застоя. Даже центры ее развития перемещались по планете в соответствии со всплесками и провалами развития человеческой культуры. В какие-то периоды ее развитие отвечало практическим запросам отдельной культуры, иногда она выбирала направление самостоятельно, и ее адепты становились в глазах общества просто чудаками, увлеченными игрой разума. И тем удивительнее было каждый раз, когда эти игры окупались в нашем мире, стимулировали развитие новых технологий и нового мировоззрения.
Математика никогда не стояла на месте. Новые приложения требовали новой математики, и она всегда отвечала на этот вызов. В частности, биология требовала от математики новых способов моделирования и взаимопонимания. Да и внутреннее развитие математики было бы невозможно без новых идей и теорий. Многие важные теоремы до сих пор не доказаны, однако математики не перестают работать над ними.
На протяжении всей своей долгой истории математика неизменно черпала вдохновение из двух источников: окружающего нас реального мира и мира человеческого воображения. Какой из них важнее? Никакой. Для нас имеет значение только их сочетание. Исторический подход убеждает нас в том, что математика черпала и мощь, и красоту равным образом из обоих источников. Времена древних греков часто воспеваются историками как Золотой век, когда логика, математика и философия были поставлены на службу человеку. Однако преимущества, полученные благодаря древним грекам, со временем стали лишь небольшой частицей истории. Математика еще никогда не была столь активна, столь многолика и необходима, как в нашем обществе.
Добро пожаловать в Золотой век математики!
Дополнительная литература
Гаусс К. Ф. Арифметические исследования // Труды по теории чисел / общ. ред. И. М. Виноградова. М.: Изд-во Академии наук СССР, 1959.
Собел Д. Долгота. М.: Астрель, 2012.
Belbruno E. Fly Me to the Moon. Princeton: Princeton University Press, 2007.
Bell E. T. Men of Mathematiccs: in 2 vols. Harmondsworth: Pelican, 1953.
Bell E. T. The Development of Mathematics: reprint. New York: Dover, 2000.
Bourgne R., Azra J.-P. crites et Mmoires Mathmatiques d’variste Galois. Paris: Gauthier-Villars, 1962.
Boyer C. B. A History of Mathematics. New York: Wiley, 1968.
Bhler W. K. Gauss: a Biographical Study. Berlin: Springer, 1981.
Cardan J. The Book of My Life / trans. Jean Stoner. London: Dent, 1931.
Cardano G. The Great Art or the Rules of Algebra / trans. T. Richard Witmer. Cambridge, MA: MIT Press, 1968.
Coolidge J. The Mathematics of Great Amateurs. New York: Dover, 1963.
Dantzig T. Number – the Language of Science / ed. J. Mazur. New York: Pi Press, 2005.
Euclid. The Thirteen Books of Euclid’s Elements: in 3 vols. / trans. by sir Thomas L. Heath. New York: Dover, 1956.
Fauvel J., Gray J. The History of Mathematics – a Reader. Basingstoke: Macmillan Education, 1987.
Fowler D. H. The Mathematics of Plato’s Academy. Oxford: Clarendon Press, 1987.
Hyman A. Charles Babbage. Oxford: Oxford University Press, 1984.
Joseph G. G. The Crest of the Peacock – non-European Roots of Mathematics. Harmondsworth: Penguin, 2000.
Katz V. J. A History of Mathematics. 2nd ed. Reading, MA: Addison-Wesley, 1998.
Kline M. Mathematical Thought from Ancient to Modern Times. Oxford: Oxford University Press, 1972.
Koblitz A. H. A Convergence of Lives – Sofia Kovalevskaia. Boston: Birkhuser, 1983.
Koblitz N. A Course in Number Theory and Cryptography. 2nd ed. New York: Springer, 1994.
Livio M. The Golden Ratio. New York: Broadway, 2002.
Livio M. The Equation That Couldn’t Be Solved. New York: Simon & Schuster, 2005.
Maior E. e – the Story of a Number. Princeton: Princeton University Press, 1994.
Maior E. Trigonometric Delights. Princeton: Princeton University Press, 1998.
McHale D. George Boole. Dublin: Boole Press, 1985.
Neugebauer O. A History of Ancient Mathematical Astronomy: in 3 vols. New York: Springer, 1975.