Понимать риски. Как выбирать правильный курс Гигеренцер Герд
Доля ложных положительных результатов (False-positive rate). Доля положительных результатов тестирования у людей, не имеющих заболевания. Обычно выражается в виде условной вероятности или в процентах. Например, маммографический скрининг имеет долю ложных положительных результатов от 5 до 10, то есть от 5 до 10 % женщин, не имеющих рака груди, тем не менее получают положительный результат тестирования. Доля положительных результатов тестирования и специфичность теста (вероятность отрицательного результата при отсутствии болезни) составляют в сумме 100 %. Доли двух типов ошибок взаимозависимы: снижение доли ложных позитивных результатов приводит к увеличению доли ложных негативных результатов и наоборот.
Естественные частоты (Natural frequencies). Частоты, соответствующие способу, при помощи которого люди имели дело с информацией до изобретения книгопечатания и теории вероятностей. В отличие от вероятностей и относительных частот они являются «сырыми» наблюдениями, которые не были нормализованы относительно базовых показателей рассматриваемого события. Например, врачи наблюдали 100 пациентов, у 10 из которых была обнаружена новая болезнь. Из этих 10 у 8 есть симптомы болезни, но у 4 из не признанных больными также имеются эти симптомы. Разделение этих 100 случаев на 4 группы (болезнь и симптомы – 8, болезнь при отсутствии симптомов – 2, нет болезни при наличии симптомов – 4, нет болезни и нет симптомов – 86) дает значение 4 естественных частот: 8, 2, 4 и 86. Естественные частоты облегчают получение байесовских выводов. Например, врач, который наблюдает нового пациента с симптомами болезни, легко может увидеть, что шансы на то, что данный пациент действительно болен, составляют 8/(8 + 4)/ то есть два к трем. Такая вероятность называется апостериорной. Однако если наблюдения врача трансформировать в условные вероятности или относительные частоты (например, посредством деления естественной частоты 4 на базовый показатель 90, что даст долю ложных положительных результатов в 0,044 или 4,4 %), то вычисление становится более трудным. Естественные частоты позволяют увидеть апостериорные вероятности, в то время как условные частоты затуманивают людям мозги. См. Правило Байеса.
Закон Франклина (Franklin’s law). В мире нет ничего заранее определенного, кроме смерти и налогов. Напоминание о том, что во всех действиях человека неопределенность присутствует во всем, благодаря ошибкам человека и техники, ограниченности знаний, непредсказуемости, обману и множеству других причин.
Иллюзия индюка (Turkey illusion). Иллюзия рассчитываемого риска (или иллюзия индюка) – это ошибочное принятие неопределенности за известный или рассчитываемый риск. В результате возникает иллюзия определенности. Помимо прочего, она проистекает из ошибочной уверенности в том, что любая задача должна решаться с применением теории вероятностей, в частности правила Байеса.
Иллюзия нулевого риска (Zero-risk illusion). Иллюзия нулевого риска возникает всякий раз, когда известные риски ошибочно принимают за абсолютную определенность.
Иллюзия определенности (Illusion of certainty). Убежденность в том, что о событии все полностью известно, когда в действительности это не так. Эта иллюзия может быть полезной, допустим позволяя успокаиваться, но и несет в себе издержки, приводя, например, к самоубийству после получения ложного положительного результата ВИЧ-тестирования. Иногда она навязывается обществом. Например, вхождение в социальную группу может потребовать от новичка принятия иллюзии определенности в отношении моральных и политических ценностей.
Интуиция (Intuition). См. Внутреннее чутье.
Искажение статистической вероятности выживания от зазора от профилактического скрининга (ИСВВ) (Lead time bias). Одна из двух причин, по которым коэффициенты выживаемости вводят в заблуждение относительно выгод скрининга (другой причиной является гипердиагностирование). Даже если срок наступления смерти под влиянием скрининга не изменяется, то есть ни одна жизнь не спасается и не удлиняется, то раннее обнаружение приближает время постановки диагноза и, таким образом, приводит к повышению значения коэффициента выживаемости.
Компромисс между точностью и усилиями (Accuracy-effort trade-off). Представление о том, что ценой, которую придется заплатить за приложение меньших усилий (например, за использование эвристики, которая не требует затрат времени на поиск всей имеющейся информации), будет меньшая точность. Этот компромисс действует в мире известных рисков, но не там, где есть неизвестные риски. В условиях неопределенности простые эвристики могут и экономить затраты усилий, и одновременно быть более точными. См. Меньше значит больше.
Конфликты интересов (Conflicts of interest) Интересы индивида или учреждения могут вступать в конфликт друг с другом. Рассмотрим здравоохранение и банкинг. С одной стороны, врачи и банковские консультанты хотели бы сделать все возможное для своих пациентов или клиентов, но, с другой стороны, это может привести к потере денег. Как следствие, пациенты направляются на ненужные операции или обследования, а клиентов банка убеждают делать инвестиции, которые более выгодны не для них, а для банка. Конфликт интересов (К) является составляющей синдрома СНК, который выражает суть важнейшей дилеммы, стоящей перед современным здравоохранением. См. синдром СНК.
Коэффициент выживаемости (Survival rate). Мера полезности лечения: коэффициент пятилетнего выживания рассчитывается как количество пациентов, у которых диагностирован рак, но которые по-прежнему живы через пять лет после постановки этого диагноза, деленное на общее количество пациентов, у которых был диагностирован рак. Применительно к скринингу изменение коэффициента выживаемости ошибочно воспринимается как выгода, потому что оно никак не корреспондирует с изменениями коэффициента смертности. Это происходит из-за искажения статистической вероятности выживания из-за временного зазора от профилактического скрининга и гипердиагностирования. Несмотря на это, многие медицинские учреждения рекламируют скрининг, прибегая к использованию коэффициента выживаемости и вводя людей в заблуждение по поводу его полезности. (См. Искажение статистической вероятности выживания из-за временного зазора от профилактического скрининга и Гипердиагностирование).
Культура ошибок (Error culture). Характеризует отношение индивида или учреждения к ошибкам. Позитивная культура ошибок признает ошибки с целью изучения их причин и создания более безопасной среды. Негативная культура ошибок скрывает ошибки, чтобы защитить себя, выдвигает обвинения вместо того, чтобы устранять причины, и обычно повторяет те же ошибки в будущем. См. Оборонительная позиция при принятии решений.
Леверидж (Leverage). Способ увеличения выгод (или убытков) посредством заимствования денег с целью их последующего инвестирования. Леверидж используется индивидами и банками. Коэффициент левериджа приблизительно может быть определен как стоимость активов, деленная на собственный капитал. Например, человек, который располагает 10 тыс. долларов и покупает дом за 100 тыс. долларов, имеет леверидж десять к одному.
Ложный отрицательный результат (False negative). Ложный отрицательный результат или пропуск возникает, когда тест дает отрицательный результат (проверка не обнаруживает беременности) вопреки реальному состоянию пациента (женщина беременна).
Ложный положительный результат (False positive). Ложный положительный результат или ложная тревога возникают, когда тестирование дает положительный результат (положительный результат тестирования беременности) вопреки реальной ситуации (женщина не беременна).
Максимизация (Maximizing). Определение наибольшей ценности, то есть максимума (или минимума) на кривой. Однако в мире неизвестных рисков наилучший результат рассчитать невозможно. Трактовка неопределенности как известного риска (иллюзия индюка) может привести к плохим решениям и катастрофе. Альтернативой является удовлетворительность, то есть попытка найти альтернативу, которая соответствует уровню притязаний, или, другими словами, является достаточно хорошей. См. Разумная достаточность и Эвристики.
Математическая неграмотность (Innumeracy). Неспособность размышлять, используя цифры. Статистическая неграмотность – это неспособность размышлять с использованием цифр, отображающих риски. Подобно обычной неграмотности, математическая неграмотность также поддается излечению. Она не просто является мыслительным дефектом чьего-то несчастного разума, а возникает вследствие недостаточного обучения и стимулируется вводящими в заблуждение сообщениями о рисках. Математическая неграмотность (Н) как одна из составляющих распространенного у врачей синдрома СНК является серьезной проблемой современного здравоохранения. См. синдром СНК.
Меньше значит больше (Less is more). Кажущийся парадоксальным феномен, который предполагает использование меньшей информации, меньших вычислений или меньших затрат времени, но может привести к вынесению более правильных суждений. Отметьте, что «меньше значит больше» не означает, что лучше не иметь никакой информации; он означает лишь то, что с какого-то момента увеличение объема информации (вычислений) идет во вред, даже если она предоставляется бесплатно. В соответствии с компромиссом между точностью и усилием эффектов утверждение «меньше значит больше» неправильное. Это действительно так в мире известного риска, но не в мире частично неизвестных рисков. Эвристики могут способствовать тому, что меньше оказывается больше; о том, когда и почему это происходит см. Дилемма смещения-дисперсии.
Неопределенность (Uncertainty). Неопределенность означает, что какие-то риски неизвестны. Классическое определение различия между известными рисками (риском) и неизвестными рисками (неопределенность) приписывается экономисту Фрэнку Найту: неопределенность, как она понимается здесь, имеет отношение не просто к неизвестным вероятностям (неясности); она может включать также незнание всех альтернатив и их последствий. Неопределенность требует инструментов, которые не может предоставить теория вероятностей, таких как простые практические правила. Оптимизация (нахождение наилучшего курса действий) по определению недостижима в неопределенном мире; таким образом, цель заключается в нахождении здравого курса действий – такого, который имеет хорошие шансы на то, чтобы обеспечить выживание в неизвестном будущем.
Неприятие риска (Risk aversion). Склонность отдавать предпочтение надежному варианту перед ненадежным. Иногда считается, что неприятие риска является личностной характеристикой. Однако практически ни один человек не является или не приемлющим риска или постоянно идущим на риск. Большинство демонстрирует оба типа поведения, но в разных областях, как, например, заядлый курильщик, обеспокоенный возможностью заболеть раком вследствие употребления в пищу генетически модифицированной кукурузы. Неприятие риска является не общей чертой характера, а специфической для определенной сферы жизни. Концепция социальной имитации страха объясняет, что существует специфический паттерн социально усвоенных рисков, которые индивиды готовы принимать или которых они хотят избегать.
Оборонительная позиция при принятии решений (Defensive decision making). Индивид или группа ранжирует вариант А как наилучший, но выбирает вариант В. Вариант В хуже, но такой выбор позволяет защитить себя на тот случай, если что-то пойдет не так, как надо. Этот вид самозащиты (С) является частью триады синдрома СНК, который выражает суть важнейшей дилеммы, стоящей перед современным здравоохранением. См. синдром СНК.
Относительное снижение риска (Relative risk reduction). Мера полезности лечения. Выраженная через количество спасенных или умерших людей. Например, если лечение уменьшает количество умерших людей с 6 до 4 на 1 тыс., то тогда относительное снижение риска составляет 33,3 %. Значения относительных рисков приводятся довольно часто, потому что эти цифры выглядят более внушительно, чем цифры абсолютного снижения рисков (в данном случае 2 смерти на 1 тыс., или 0,2 %). Относительные риски не позволяют понять, насколько велик риск в абсолютных терминах, и поэтому часто воспринимаются неправильно. Например, если лечение уменьшает количество умерших людей с 6 до 4 среди 10 тыс. человек, то относительное снижение риска останется тем же самым (33,3 %), в то время как абсолютный риск снизится до 0,02 %.
Относительные частоты (Relative frequencies). Одна из трех интерпретаций вероятности (двумя другими являются степень доверия и проявление на физическом уровне). Вероятность события определяется как его относительная частота в ссылочном классе. Исторически частоты появились в теории вероятности благодаря использованию таблиц смертности, которые предоставляли основу для расчета ставок страхования жизни. Применение относительных частот ограничивается повторяющимися событиями, которые могут наблюдаться в больших количествах.
Отрицательный результат тестирования (Negative test result). Обычно хорошая новость. То есть никаких признаков болезни не обнаружено.
Ошибка (Error). Тест может дать два ошибочных результата: ложный положительный и ложный отрицательный. Эти ошибки могут иметь разное происхождение, включая человеческий фактор (лаборант перепутал две пробы или ввел не те данные в компьютер) и медицинские условия (положительный результат ВИЧ-тестирования вследствие ревматологического заболевания или заболевания печени, которые не имеют никакого отношения к ВИЧ). Ошибки могут быть уменьшены, но не исключены полностью, и среди них могут быть даже положительные ошибки, обязательные для адаптации и выживания, такие как ошибки копирования (мутации) ДНК.
Полезные ошибки (Good errors). Ошибки, которые ускоряют процесс обучения и приводят к появлению инноваций.
Положительный результат тестирования (Positive test result). Обычно не слишком хорошая новость. Сигнал о том, что у вас, возможно, обнаружена болезнь.
Правило 1/ N. Распределяйте все ваши ресурсы равномерно между N альтернативными вариантами. Также называется эвристикой равенства.
Правило Байеса (Bayes’ rule). Правило уточнения вероятности гипотез с учетом новых данных. Его авторство приписывается преподобному Томасу Байесу. Для простого случая бинарной гипотезы (Н и не-Н, например, есть рак или нет рака) и данных D (например, положительный результат тестирования) правило выглядит так:
p(H|D) = p(H)p(D|H)/[p(H)p(D|H) + p(не-H)p(D|не-H)],
где p(D|H) – апостериорная вероятность, p(H) – априорная вероятность, p(D|H) – вероятность D при условии H, p(D|не-H) это вероятность D при условии неH.
Многим трудно понимать это правило. Но вот полезный совет. Интересно, что расчет p(D|H) становится более интуитивно понятным, когда исходные величины представляются в виде естественных частот, а не вероятностей. Для естественных частот правило выглядит так:
p(H|D) = a/(a + b),
где а – это число D случаев Н, а b – это число D случаев не-Н. См. естественные частоты.
Правило следования (Rule of succession). Вероятность того, что событие произойдет снова, если до этого оно случалось n раз = (n+ 1)/(n+ 2). Это правило может быть выведено из правила Байеса, если принять прошлые вероятности одинаковыми.
Предрасположенность (Propensities). См. Проявление на физическом уровне.
Простое практическое правило (Rule of thumb). См. Эвристика.
Процентные показатели (Percentages). Относительные частоты, умноженные на сто, называются процентными показателями. Они находятся в диапазоне от 0 до 100, в то время как вероятности и относительные частоты лежат в диапазоне от 0 до 1. Большинству людей легче оперировать процентными показателями. Рассмотрим утверждение: «Около 80 % курящих американских женщин продолжают курить и во время беременности». Теперь сравним его со следующим: «Американские женщины с вероятностью 0,8 продолжают курить и во время беременности». Утверждение, в котором используется вероятность, менее удобно и понятно для широкой публики. Вот почему процентные показатели используются на протяжении всей этой книги.
Проявление на физическом уровне (Physical design). Одна из трех интерпретаций вероятности (наряду с относительными частотами и степенью доверия). В этой интерпретации вероятность имеет отношение к конструкции, а не к подсчету (как в случае с относительными вероятностями). Например, электронные игровые автоматы запрограммированы таким образом, чтобы обеспечивать определенную вероятность выигрыша. Иногда проявление на физическом уровне также называют предрасположенностью. Исторически оно нашло отражение в теории вероятностей благодаря азартным играм, в частности в кости и в рулетку.
Разумная достаточность (Satisficing). Эвристика для выбора альтернативы (например, дома или супруги) из большого числа вариантов. Задается уровень притязаний, и поиск прекращается после нахождения первого объекта, соответствующего этому уровню. Уровень притязаний может быть понижен, когда долго не находится ни одной подходящей альтернативы.
Рандоминизированное испытание или исследование методом случайной выборки (Randomized trial). Исследование, призванное оценить пользу и вред лечения с помощью рандомизации как метода контроля. Через какое-то время две группы сравниваются по заданному критерию, например по показателю смертности, чтобы определить, было ли лечение эффективным. Рандомизация делает возможным контроль переменных – таких, как возраст, образование и здоровье, – которые могут приниматься в качестве альтернативных объяснений (помимо самого лечения) наблюдаемых различий между группами.
Раннее обнаружение (Early detection). Обследование людей без симптомов болезни с целью снижения заболеваемости или смертности. Раннее обнаружение (скрининг) – это не предупреждение заболевания. Скрининг означает выявление болезни, которая уже возникла, а предупреждение означает снижение вероятности возникновения болезни. Эти два термина путают еще и потому, что для обозначения скрининга иногда используют термин «вторичное предупреждение». Раннее обнаружение может снижать, а может и не снижать смертность. Например, при отсутствии эффективных методов лечения раннее обнаружение и последующее лечение не приведут к снижению смертности.
Распространенность (Prevalence). См. Базовый показатель.
Риск (Risk). Если неопределенность, ассоциируемая с событием, может быть количественно оценена на основе эмпирических наблюдений или каузального знания (проявление на физическом уровне), то такая неопределенность называется риском. Относительные частоты и вероятности – это способы выражения рисков. В отличие от повседневного использования этого термина риск не следует ассоциировать с причинением вреда; он может рассматриваться как позитивное, нейтральное или негативное событие. Авторство классического определения различия между известными рисками (риск) и неизвестными рисками (неопределенность) приписывается экономисту Фрэнку Найту. См. Неопределенность.
Синдром СНК (SIC syndrome). Ключевая проблема в здравоохранении, о которой должен знать каждый пациент. Большинство врачей:
• используют оборонительные медицинские практики (Самозащита);
• не понимают медицинской статистики (математическая Неграмотность);
• работают ради получения прибыли, а не ради излечения пациентов (Конфликт интересов).
Эти три фактора действуют совместно, приводя к выбору вторых наилучших методов лечения, гипердиагностированию и гиперлечению, что идет во вред пациентам.
Скрининг (Screening). См. Раннее обнаружение.
Снижение смертности (Mortality reduction). Мера пользы лечения, выраженная через количество спасенных жизней. Снижение смертности может быть представлено разными способами, в том числе как снижение относительного риска, снижение абсолютного риска и повышение продолжительности жизни. Применительно к скринингу показатели смертности – более уместные статистические показатели, чем коэффициенты выживаемости. См. Коэффициент выживаемости.
Социальное копирование страха (Social imitation of fear). Психологический принцип «бояться всего, чего боится твоя социальная группа», позволяет нам узнавать о всех опасностях, не подвергая им себя. Он защищает нас, когда приобретение личного опыта может привести к летальному исходу. В то же время он может заставлять нас бояться того, чего бояться не надо.
Специфичность (Specificity). Специфичность теста – это процент индивидов, которые были правильно классифицированы как не имеющие заболевания. Формально специфичность представляет собой условную вероятность Р (отрицательный результат/отсутствие заболевания) отрицательного результата теста при отсутствии заболевания. Специфичность и доля ложных положительных результатов в сумме дают 100 %.
Ссылочный класс (Reference class). Класс событий или объектов, с которым ассоциируются относительные частоты. При частотной интерпретации концепции вероятности не существует вероятности без конкретного ссылочного класса. Такой подход исключает использование вероятностей отдельных событий, которые по определению не уточняют ссылочный класс.
Степень доверия (Degrees of belief). Одна из трех интерпретаций вероятности (наряду с относительными частотами и проявлением на физическом уровне). Вероятность события является мерой субъективной веры индивида в то, что это событие имело место. Исторически степень доверия попала в теорию вероятности из залов суда, где часто рассматривалась степень доверия к показаниям свидетелей. Степень доверия ограничивается законами вероятности (в том числе тем, которое требует, чтобы вероятности в сумме составляли единицу), а это означает, что убежденности должны следовать этим законам, чтобы квалифицироваться как субъективные вероятности.
Страх перед пугающим риском (Dread-risk fear). Легко заставить людей бояться реальных или воображаемых ситуаций, в которых внезапно погибает сразу много людей, например при атаке 11 сентября. Благодаря выработавшемуся паттерну страха и бегства люди стараются избегать таких ситуаций. Напротив, довольно трудно заставить людей бояться ситуаций, в которых столько же или еще больше людей погибает в течение года, например в дорожных авариях или от курения. Страх перед пугающим риском, возможно, был в человеческой истории адаптивным в то время, когда наши предки жили небольшими группами, в которых внезапная смерть большого числа членов такой группы серьезно угрожала выживанию остальных.
Таблица иконок (Icon box). Инструмент для наглядного отображения рисков, кратко представляющий научные данные о применении лекарств, методов лечения и скрининга. Таблица иконок показывает две группы индивидов: прошедших лечение и не прошедших лечение (контрольная группа). Каждый индивид представлен иконкой, показывающей выгоды и причиняемый вред. Таблица иконок не использует вводящую в заблуждение статистику: относительные риски, двойственное представление результатов и коэффициенты 5-летней выживаемости после скрининга. Они понятны, как и таблицы фактов, но визуально более привлекательны. Таблицы фактов лучше подходят для случаев описания редких болезней или малых эффектов, для которых потребовались бы тысячи иконок. См. Таблица фактов.
Таблица фактов (Fact box). Таблица для транспарентного информирования о риске, сжато представляющая научные факты о лекарствах, типах лечения и методе скрининга. Таблица показывает выгоды и вред, которые получат люди от прохождения лечения и при отказе от него. Все числа соответствуют простым частотам. Таблицы фактов не используют вводящую в заблуждение статистику в виде данных об относительных рисках, двойственное представление результатов и коэффициенты 5-летней выживаемости для скрининга.
Уровень притязаний (Aspiration level). Правило, позволяющее определить, когда альтернатива достаточно хороша и поиск можно прекратить. Например, в случае разумной достаточности индивид задает уровень притязаний и затем выбирает первый альтернативный вариант, соответствующий этому уровню. См. Разумная достаточность.
Условная вероятность (Conditional probability). Вероятность события А при условии наступления события В обычно записывается как p(A|B). Примером условной вероятности является положительный результат тестирования в первые три месяца беременности при условии, что плод имеет синдром Дауна; обычно такая вероятность составляет около 0,90. Вероятность р(А), например, не является условной вероятностью. Условные вероятности часто ошибочно трактуются одним из двух способов: вероятность А при условии В путают с вероятностью А и В; и вероятность А при условии В путают с вероятностью В при условии А. Таких недоразумений можно избежать, заменив условные вероятности естественными частотами. См. Естественные частоты.
Частота (Frequency). Число наблюдений в данном классе событий. Частоты могут быть относительные, абсолютные или естественные. Относительные частоты представляют собой одну из трех возможных интерпретаций вероятности (наряду со степенью доверия и проявлением на физическом уровне).
Число нуждающихся в лечении (ЧНЛ) (Number needed to treat). Хорошо понятная мера выгод лечения. Например, пациенты с высоким риском сердечных заболеваний в течение нескольких лет принимают препарат для снижения уровня холестерина – липитор. Исследования показывают, что из каждых 100 таких пациентов 1 был спасен от инсульта. В данном случае ЧНЛ для спасения одной жизни равно 100. Другими словами, 99 пациентов не получат выгод от приема этого лекарства. Снижение абсолютного риска составляет 1 случай на 100, что является величиной обратной ЧНЛ. Значение ЧНЛ ясно показывает, как много или мало пациентов получат пользу от приема лекарства или от лечения.
Чувствительность (Sensitivity). Чувствительность теста – это процент индивидов, правильно классифицированных как имеющие заболевание. Формально чувствительность представляет собой условную вероятность Р(положительный результат/заболевание) получения положительного результата теста при наличии заболевания. Чувствительность и показатель ложного отрицательного результата в сумме составляют 100 %. Чувствительность также называется коэффициентом попадания в цель.
Эвристика (Heuristic). Простое практическое правило, или эвристика – это сознательная или подсознательная стратегия, которая ради вынесения лучших суждений допускает игнорирование части имеющейся информации. Эвристики необходимы там, где не все риски известны (неопределенность), в то время как теории вероятностей оказывается вполне достаточно там, где риски известны (риск). Рациональному разуму необходимы оба этих типа инструментов. Существуют следующие классы эвристик: 1) эвристики, основанные на узнавании, такие как эвристика узнавания; 2) эвристика одной хорошей причины, такие как эвристика взгляда; 3) последовательные эвристики, такие как «бери лучшее»; 4) социальные эвристики, такие как имитация поведения окружающих. Распространенное представление о том, что эвристические решения всегда оказываются вторыми наилучшими и что дополнительная информация и дополнительные вычисления всегда приносят пользу, является ошибочным. См. Меньше значит больше и Дилемма смещения-дисперсии.
Эвристика узнавания (Recognition heuristic): если одна из двух альтернатив узнается, а другая нет, то это подразумевает, что узнаваемая альтернатива имеет более высокую ценность по какому-то критерию. Эта эвристика приводит к правильным заключениям, когда существуют корреляция между узнаванием и критерием (таким, как численность населения города).
Эвристика хиатуса (Hiatus heuristic): если покупатель не делает покупок в течение девяти месяцев или более, то его следует классифицировать как неактивного, в противном случае – как активного. Это правило относится к классу эвристик одной хорошей причины. Оно используется менеджерами для предсказания того, какие покупатели будут делать покупки в будущем. Было показано, что оно превосходит многие сложные методы оптимизации. Число месяцев может варьироваться.
Эвристический взгляд (Gaze heuristic): Зафиксируйте свой взгляд на объекте и корректируйте скорость вашего перемещения таким образом, чтобы угол между направлением вашего движения и направлением взгляда оставался постоянным. Простое правило для решения навигационных задач, таких как безопасное приземление, ловля мячей и перехват движущихся предметов.
Литература
Admati A., Hellwig M. (2013). The bankers’ new clothes: What’s wrong with banking and what to do about it. Princeton, NJ: Princeton University Press.
Agoritsas T., Courvoisier D. S., Combescure C., Deom M., Perneger T. V. (2011). Does prevalence matter to physicians in estimating post-test probability of disease? A randomized trial. Journal of General Internal Medicine 26, 373–378.
Akerlof G. A., Shiller R. J. (2009). Animal spirits. Princeton, NJ: Princeton University Press.
American Dental Association, U. S. Department of Health and Human Services. (2004). The selection of patients for dental radiographic examinations. Report. Retrieved from www.fda.gov/downloads/Radiation-EmittingProducts/RadiationEmittingProductsandProcedures/MedicalImaging/MedicalX-Rays/ucm116505.pdf.
Ariely D. (2008). Predictably irrational. London: HarperCollins.
Arkes H. R., Gaissmaier W. (2012). Psychological research and the prostate-cancer screening controversy. Psychological Science 23, 547–553.
Bachmann L. M., Kolb E., Koller M. T., Steurer J., ter Riet G. (2003). Accuracy of Ottawa ankle rules to exclude fractures of the ankle and mid-foot: Systematic review. British Medical Journal 326, 417–419.
Barber B. M., Odean T. (2001). Boys will be boys: Gender, overconfidence, and common stock investment. The Quarterly Journal of Economics 1, 261–292.
Bearden J. N., Rapoport A., Murphy R. O. (2006). Sequential observation and selection with rank-dependent payoffs: An experimental test of alternative decision rules. Management Science 52, 1437–1449.
Beck U. (1992). Risk society: Toward a new modernity (M. Ritter, Trans.). London: Sage. (Original work published 1986.)
Becker G. S. (1981). A treatise on the family. Cambridge, MA: Harvard University Press.
Begley C. G. (2012, March 28). In cancer science, many «discoveries» don’t hold up. Reuters. Retrieved from www.reuters.com.
Beilock S. L., Bertenthal B. I., McCoy A. M., Carr T. H. (2004). Haste does not always make waste: Expertise, direction of attention, and speed versus accuracy in performing sensorimotor skills. Psychonomic Bulletin and Review 11, 373–379.
Bennis W. M., Katsikopoulos K. V., Goldstein D. G., Dieckmann A., Berg N. (2012). Designed to fit minds: Institutions and ecological rationality. In P. M. Todd, G. Gigerenzer, the ABC Research Group, Ecological rationality. Intelligence in the world (p. 409–427). New York: Oxford University Press.
Berg M., Sreide K. (2011). Prevention: Will an aspirin a day keep the colorectal cancer away? Nature Reviews Clinical Oncology 8, 130–131.
Berg N., Gigerenzer G. (2007). Psychology implies paternalism? Bounded rationality may reduce the rationale to regulate risk taking. Social Choice and Welfare 28, 337–359.
Berlin I. (1967). Two concepts of liberty. In A. Quinton (Ed.), Political philosophy (p. 141–152). Oxford, UK: Oxford University Press.
Berrington de Gonzlez A., Mahesh M., Kim K. P., Bhargavan M., Lewis R., Mettler F., Land C. (2009). Projected cancer risk from computed tomography scans performed in the United States in 2007. Archives of Internal Medicine 169, 2071–2077.
Billari F. C., Prskawetz A., Fent T., Aparicio Diaz B. (2007). The «Wedding-Ring»: An agent-based marriage model based on social interaction. Demographic Research 17, 59–82.
Bingham C. B., and Eisenhardt K. M. (2011). Rational heuristics: The «simple rules» that strategists learn from process experience. Strategic Management Journal 32, 1437–1464.
Bomlitz L. J., Brezis M. (2008). Misrepresentation of health risks by mass media. Journal of Public Health 30, 202–204.
Bond M. (2009). Risk school. Nature 461, 1189–1192.
Bower B. (2011, June 4). Simple heresy. Science News 179, 26–29.
Bramwell R., West H., Salmon P. (2006). Health professionals’ and service users’ interpretation of screening test results: Experimental study. British Medical Journal 333, 284–286.
Brandt A. M. (2007). The cigarette century. New York: Basic Books.
Brenner D. J. (2010). Slowing the increase in the population dose resulting from CT scans. Radiation Research 174, 809–815.
Brenner D. J., Elliston C. D. (2004). Estimated radiation risk potentially associated with full-body CT screening. Radiology 232, 735–738.
Brenner D. J., Hall E. J. (2007). Computed tomography – An increasing source of radiation exposure. New England Journal of Medicine 357, 2277–2284.
Chen X.-Y. (2007). Defensive medicine or economically motivated corruption? A Confucian reflection on physician care in China today. Journal of Medicine and Philosophy 32, 635–648.
Chou R. et al. (2005). Screening for HIV: A review of the evidence for the U. S. Preventive Services Task Force. Annals of Internal Medicine 143, 55–73.
Cohen D., and Carter P. (2010). WHO and the pandemic flu «conspiracies». British Medical Journal 340, 1274–1279.
Cohen I. B. (1998). Howard Aiken on the number of computers needed for the nation. IEEE Annals of the History of Computing 20, 27–32.
Covey J. (2007). A meta-analysis of the effects of presenting treatment benefits in different formats. Medical Decision Making 27, 638–654.
Cosmides L., and Tooby J. (1996). Are humans good intuitive statisticians after all? Rethinking some conclusions from the literature on judgment under uncertainty. Cognition 58, 1–73.
Czerlinski J., Gigerenzer G., Goldstein D. G. (1999). How good are simple heuristics? In G. Gigerenzer, P. M. Todd, the ABC Research Group, Simple heuristics that make us smart (p. 97–118). New York: Oxford University Press.
Daston L. J. (1988). Classical probability in the Enlightenment. Princeton, NJ: Princeton University Press.
Doll R., Peto R., Boreham J., Sutherland I. (2004). Mortality in relation to smoking: 50 years’ observations on male British doctors. British Medical Journal 328, 1519.
Delongchamps N. B., Sing A., Haas G. P. (2006). The role of prevalence in the diagnosis of prostate cancer. Cancer Control 13, 158–168.
DeMiguel V., Garlappi L., Uppal R. (2009). Optimal versus naive diversification: How inefficient is the 1/ N portfolio strategy? Review of Financial Studies 22, 1915–1953.
Dewey J. (1929). The quest for certainty. New York: Minton, Balch and Co.
Dijksterhuis A., van Knippenberg A., Kruglanski A. W., Schaper C. (1996). Motivated social cognition: Need for closureeffects on memory and judgments. Journal of Experimental Social Psychology 32, 254–270.
DiPrete T. A. (2007). Is this a great country? Research in Social Stratification and Mobility 25, 89–95.
Djulbegovic M., Beyth R. J., Neuberger M. M., Stoffs T. L., Vieweg J., Djulbegovic B., Dahm P. (2010). Screening for prostate cancer: Systematic review and meta analysis of randomized controlled trials. British Medical Journal 341, c4543.
Doll R., Peto R., Boreham J., Sutherland I. (2004). Mortality in relation to smoking: 50 years’ observations on male British doctors. British Medical Journal 328, 1519.
Domenighetti G., Casabianca A., Gutzwiller F., and Martinoli S. (1993). Revisiting the most informed consumer of surgical services: The physician-patient. International Journal of Technology Assessment in Health Care 9, 505–513.
Donner-Banzhoff N., Bastian H., Coulter A., Elwyn G., Jonitz G., Klemperer D., Ludwig W. D. (2011). How can better evidence be delivered? In G. Gigerenzer, J. A. Muir Gray (Eds.), Better doctors, better patients, better decisions (p. 215–232). Cambridge, MA: MIT Press.
Doshi P. (2009). Neuraminidase inhibitors: The story behind the Cochrane review. British Medical Journal 330, 1348–1351.
Egidi M., and Marengo L. (2004). Near-decomposability, organization, and evolution: Some notes on Herbert Simon’s contribution. In M. Augier and J. J. March (Eds.), Models of a man: Essays in memory of Herbert A. Simon (p. 335–350). Cambridge, MA: MIT Press.
Ehrenreich B. (2010). Bright-sided: How positive thinking is undermining America. New York: Picador.
Einstein A. (undated). Letter to Max Wertheimer. Albert Einstein Archive, Princeton University Library.
Emanuel E. J. (2008). Healthcare, guaranteed: A simple, secure solution for America. New York: Public Affairs.
Enserink M. (2010, December 24). What’s next for disease eradication? Science 330, 1736–1739. doi: 10.1126/ science. 330.6012.1736.
Finkel E. J., Eastwick P. W., Karney B. R., Reis H. T., Sprecher S. (2012). Online dating: A critical analysis from the perspective of psychological science. Psychological Science in the Public Interest 13, 3–66.
Firman D., Quirk K. (2009). Brace for impact. Deerfield Beach, FL: Health Communications, Inc.
Flegal K. M., Graubard B. I., Williamson D. F., Gail M. H. (2005). Excess deaths associated with underweight, overweight, and obesity. Journal of the American Medical Association 293, 861–1867.
Folkman J., Kalluri R. (2004). Cancer without disease. Nature 427, 787. doi: 10. 1038 /427787a
Franklin B. (1745). Letter to a friend (Philadelphia, June 25, 1745). Retrieved from www.bibliomania.com/2/9/77/124/21473/1/frameset.html.
Franklin B. (1779). Letter to Jonathan Williams (Passy, April 8, 1779). In A. H. Smyth (Ed.), The writings of Benjamin Franklin (Vol. VII. p. 281–282). New York: Macmillan.
Friedman D. (2004). Monty Hall’s three doors: Construction and deconstruction of a choice anomaly. American Economic Review 88, 933–946.
Friedman D., Nakhoda A. (2008, August). Monty Hall Problem. Learning and Experimental Economics Projects of Santa Cruz (LEEPS), University of Santa Cruz. Retrieved from leeps.ucsc.edu/misc/page/monty-hall-puzzle/.
Furedi A. (1999). The public health implications of the 1995 «pill scare». Human Reproduction Update 5, 621–626. doi:10.1093/humupd/5.6. 621.
Gaissmaier W. Gigerenzer G. (2012). 9/ 11, act II: A fine-grained analysis of regional variations in traffic fatalities in the aftermath of the terrorist attacks. Psychological Science 23, 1449–1454.
Galesic M., Garcia-Retamero R. (2012). The risks we dread: A social circle account. PLoS ONE, 7, e32837.
Galesic M., Garcia-Retamero R., Gigerenzer G. (2009). Using icon arrays to communicate medical risks to low-numeracy people. Health Psychology 28,
210–216.
Galesic M., Garcia-Retamero R., Gigerenzer G. (2014). Maximizing and satisficing: Personality trait or adaptive strategies? Manuscript, Max Planck Institute for Human Development: Berlin.
Garcia-Retamero R., Galesic M. (2012). Doc, what would you do if you were me? On self-other discrepancies in medical decision making. Journal of Experimental Psychology: Applied 18, 38–51.
Gaskell G., Allansdottir A., Allum N., Corchero C., Fischler C., Hampel, J., et al. (2006). Europeans and biotechnology in 2005: Pattern and trends. Eurobarometer 64.3.
Gawande A. (2009). The checklist manifesto. New York: Metropolitan Books.
Ghosh A. K., Ghosh K. (2005). Translating evidence-based information into effective risk communication: Current challenges and opportunities. Journal of Laboratory and Clinical Medicine 145, 171–180. doi:10.1016/ j.lab.2005.02.006.
Gibson R., Singh J. P. (2010). The treatment trap. Chicago, IL: Dee.
Gigerenzer G. (2000). Adaptive thinking: Rationality in the real world. New York: Oxford University Press.
Gigerenzer G. (2002). Calculated risks: How to know when numbers deceive you. New York: Simon and Schuster (UK version: Reckoning with risk: Learning to live with uncertainty. London: Penguin).
Gigerenzer G. (2004). Dread risk, September 11, and fatal traffic accidents. Psychological Science 15, 286–287 doi:10.1111/j.0956–7976.200 4.00668.x.
Gigerenzer G. (2006). Out of the frying pan into the fire: Behavioral reactions to terrorist attacks. Risk Analysis 26, 347–351. doi:10.1111/ j.1539–6924.2006.00753.x.
Gigerenzer G. (2007). Gut feelings: The intelligence of the unconscious. New York: Viking (UK version: London: Allen Lane/Penguin).
Gigerenzer G. (2008). Rationality for mortals: How people cope with uncertainty. New York: Oxford University Press.
Gigerenzer G. (2011). What are natural frequencies? Doctors need to find better ways to communicate risk to patients. British Medical Journal 343: d6386.
Gigerenzer G., Brighton H. (2009). Homo heuristicus: Why biased minds make better inferences. Topics in Cognitive Science 1, 107–143.
Gigerenzer G., Fiedler K., Olsson H. (2012). Rethinking cognitive biases as environmental consequences. In P. M. Todd, G. Gigerenzer, the ABC Research Group, Ecological rationality: Intelligence in the world (p. 80–110). New York: Oxford University Press.
Gigerenzer G., Gaissmaier W., Kurz-Milcke E., Schwartz L. M., Woloshin S. (2007). Helping doctors and patients to make sense of health statistics. Psychological Science in the Public Interest 8, 53–96.
Gigerenzer G., Galesic M. (2012). Why do single event probabilities confuse patients? British Medical Journal 344, e245. doi:0.1136/ bmj.e245.
Gigerenzer G., Galesic M., Garcia-Retamero R. (2013). Stereotypes about men’s and women’s intuitions: A study of two nations. Journal of Cross Cultural Psychology. doi:10.1177/0022022113487074.
Gigerenzer G., Goldstein D. G. (2011). The recognition heuristic: A decade of research. Judgment and Decision Making 6, 100–121.
Gigerenzer G., Hertwig R., van den Broek E., Fasolo B., Katsikopoulos K. V. (2005). «A 30 % chance of rain tomorrow»: How does the public understand probabilistic weather forecasts? Risk Analysis 25, 623–629.
Gigerenzer G., Hertwig R., and Pachur T. (Eds.) (2011). Heuristics: The foundations of adaptive behavior. New York: Oxford University Press.
Gigerenzer G., Mata, J., Frank R. (2009). Public knowledge of benefits of breast and prostate cancer screening in Europe. Journal of the National Cancer Institute 101(17), 1216–1220. doi:10.1093/jnci/djp237.
Gigerenzer G., Muir Gray J. A. (Eds.) (2011). Better doctors, better patients, better decisions: Envisioning health care 2020. Cambridge, MA: MIT Press.
Gigerenzer G., Selten R. (2001). Bounded rationality: The adaptive toolbox. Cambridge, MA: MIT Press.
Gigerenzer G., Swijtink Z., Porter T., Daston L., Beatty J., Krger L. (1989). The empire of chance: How probability changed science and everyday life. Cambridge, UK: Cambridge University Press.
Gigerenzer G., Todd P. M., the ABC Research Group (1999). Simple heuristics that make us smart. New York: Oxford University Press.
Gigerenzer G., Wegwarth O., Feufel M. (2010). Misleading communication of risk: Editors should enforce transparent reporting in abstracts. British Medical Journal 341, 791–792. doi:10.1136/ bmj.c4830.
Goldstein D. G., Gigerenzer G. (2002). Models of ecological rationality: The recognition heuristic. Psychological Review 109, 75–90. doi:10.1037/ 0033–295X.109.1.75.
Goldstein D. G., and Taleb N. N. (2007). We don’t quite know what we are talking about when we talk about volatility. Journal of Portfolio Management 33, 84–86.
Good Stewardship Working Groups (2011). The «top 5» lists in primary care. Archives of Internal Medicine 171, 385–390.
Gtzsche P. C., Nielsen M. (2011). Screening for breast cancer with mammography. Cochrane Database of Systematic Reviews 1, Article CD001877. doi:10.1002/14651858.CD001877. pub4.
Gould S. J. (1992). Bully for brontosaurus: Further reflections in natural history. New York: Penguin Books.
Graham I. D., Stiell I. G., Laupacis A., et al. (2001). Awareness and use of the Ottawa ankle and knee rules in 5 countries: Can publication alone be enough to change practice? Annals of Emergency Medicine 37, 259–266.
Gurian E. A., Kinnamon D. D., Henry J. J., Waisbren S. E. (2006). Expanded new-born screening for biomedical disorders: The effect of a false-positive result. Pediatrics 117, 1915–1921.
Haag L., Stern E. (2003). In search of the benefits of learning Latin. Journal of Educational Psychology 95, 174–178.
Hair M., Renaud K. V., Ramsay J. (2007). The influence of self-esteem and locus of control on perceived email-related stress. Computers in Human Behavior, 23, 2791–2803.
Haldane A. G. (2012). The dog and the Frisbee. Speech, Jackson Hole, August 31, 2012. www.bankofengland.co.uk/publications/Pages/speeches/2012/596.aspx.
Hale W. R. (1996). Can the Ottawa ankle decision rules be applied in the United States? Western Journal of Medicine 164, 363.
Harris R., and Lohr K. N. (2002). Screening for prostate cancer: An update of the evidence for the U. S. Preventive Services Task Force. Annals of Internal Medicine 137, 917–929.
Hecht S. S., Kassie, F., Hatsukami D. K. (July 2009). Chemoprevention of lung carcinogenesis in addicted smokers and ex-smokers. Nature Reviews Cancer 9, 476–488.
Hertwig R., Davis J. N., Sulloway F. (2002). Parental investment: How an equity motive can produce inequality. Psychological Bulletin 128, 728–745.
Hertwig R., Hoffrage U., the ABC Research Group. (2013). Simple heuristics for a social world. New York: Oxford University Press.
Hewlett J., Waisbren S. E. (2006). A review of the psychosocial effects of false-positive results on parents and current communication practices in newborn screening. Journal of Inherited Metabolic Disease 29, 677–682.
Hoffman R. M., Lewis C. L., Pignone M. P., Couper M. P., Barry M. J., Elmore J. G. et al. (2010). Decision making processes for breast, colorectal, and prostate cancer screening: The DECISIONS survey. Medical Decision Making 30, 53S – 64S.
Hoffrage U., Gigerenzer G. (1998). Using natural frequencies to improve diagnostic inferences. Academic Medicine 73, 538–540. doi:10. 097/00001888–99805000–00024.
Hoffrage U., Lindsey S., Hertwig R., and Gigerenzer G. (2000). Communicating statistical information. Science 290, 2261–2262. doi:10.1126/ science.290.5500.2261.
Holmes M. D., Chen W. Y., Feskanich D., Kroenke C. H., and Colditz G. A. (2005). Physical activity and survival after breast cancer diagnosis. Journal of the American Medical Association 293, 2479–2486.
Huff D. (1959). How to lie with statistics. New York: Norton.
col1_0 (2005). Why most published research findings are false. PLoS Medicine 2, 696–701.
Jefferson T., Jones M. A., Doshi P., Del Mar C. B., Heneghan C. J., Hama R., Thompson M. J. (2012). Neuraminidase inhibitors for preventing and treating influenza in healthy adults and children. Cochrane Database of Systematic Reviews 1. Art. No.: CD008965. doi:10.1002/14651858.
Kahneman D. (2011). Thinking, fast and slow. London: Allen Lane.
Kahneman D., Tversky A. (1972). Subjective probability: A judgment of representativeness. Cognitive Psychology 3, 430–454.
Kammerl R., Hirschuser L., Rosenkranz M., Schwinge C., Hein S., Wartherg L. (2012). EXIF – Excessive Internetnutzung in Familien [Excessive Internet use in families]. Berlin: Bundesministerium fr Familie, Senioren, Frauen und Jugend.
Kant E. (1784). Beantwortung der Frage: Was ist Aufklrung? Berlinische Monatsschrift, Dezember-Heft 481–494.
Kattah J. C., Talkad A. V., Wang D. Z., Hsieh Y. – H., Newman-Toker D. E. (2009). HINTS to diagnose stroke in the acute vestibular syndrome. Stroke 40, 3504–3510.
Knaul F., Frenk J. (2010). Latin America’s silent breast cancer epidemic. Harvard School of Public Health, Office of the Dean. Retrieved from http://134.174.190.199/administrative-offices/deans-office/julio-frenk-dean/silent-breast-cancer-epidemic/index.html.
Knight F. (1921). Risk, uncertainty and profit. Boston, MA: Houghton Mifflin Co.
Kohn L. T., Corrigan J. M., Donaldson M. S. (Eds.) (2000). To err is human: Building a safer health system. Washington, DC: National Academy Press.
Krmer W. (2011). Die Angst der Woche: Warum wir uns vor den falschen Dingen frchten. Munich: Piper.
Krauss S., Wang X. T. (2003). The psychology of the Monty Hall problem: Discovering psychological mechanisms for solving a tenacious brain teaser. Journal of Experimental Psychology: General 132, 3–22.
Kruglanski A., Gigerenzer G. (2011). Intuitive and deliberate judgments are based on common principles. Psychological Review 118, 97–109.
Kritzman M., Page S., Turkington D. (2010). In defense of optimization: The myth of 1/N. Financial Analysis Journal 66, 31–39.
Krogsbll L. T., Jrgensen K. J., Grnhj Larsen C., and Gtzsche P. C. (2012). General health checks in adults for reducing morbidity and mortality from disease. Cochrane Database of Systematic Reviews 10, CD009009. doi:10.1002/14651858. CD009009.pub2.
Krger L., Daston L., Heidelberger M. (Eds.) (1987). The probabilistic revolution, Vol. 1: Ideas in history. Cambridge, MA: MIT Press.
Krger L., Gigerenzer G., Morgan M. S. (Eds.) (1987). The probabilistic revolution: Vol. II: Ideas in the sciences. Cambridge, MA: MIT Press.
Kurz-Milcke E., Gigerenzer G., Martignon L. (2008). Transparency in risk communication: Graphical and analog tools. Annals of the New York Academy of Sciences 1128, 18–28.
Kurz-Milcke E., Gigerenzer G., Martignon L. (2011). Risiken durchschauen: Graphische und analoge Werkzeuge. Stochastik in der Schule 31, 8–16.
Labarge A. S., McCaffrey R. J., Brown T. A. (2003). Neuropsychologists’ ability to determine the predictive value of diagnostic tests. Clinical Neuropsychology 18, 165–175.
Larson C. A. (2011). Evidence-based medicine: An analysis of prophylactic bilateral oophorectomy at time of hysterectomy forbenign conditions. Current Oncology 18, 13–15.