Укажите ключевую фазу исследования ошибки которой труднее исправить

Гносеологические ошибки коренятся в сложностях процесса экспертного познания. Они могут быть допущены при познании сущности, свойств, признаков объектов экспертизы, отношений между ними, а также при оценке результатов познания, итогов экспертного исследования, их интерпретации.

Как известно, познание может быть содержательным и оценочным. Ошибки гносеологического характера связаны с процессом экспертного исследования, который строится с учетом законов логики и определенных правил. Они делятся на логические и фактические (предметные) <1>.

———————————

<1> Белкин Р.С. Криминалистика: проблемы сегодняшнего дня. М., 2001. С. 188.

Логические ошибки связаны с нарушением в акте мышления законов и правил логики, некорректным применением логических приемов и операций, например смешение причинной связи с простой последовательностью во времени или обоснование тезиса аргументами, из которых данный тезис логически не вытекает. Такие ошибки обычно связаны с различными логическими операциями и видами умозаключений. Так, можно выделить ошибки в делении понятий, в определении понятий, ошибки в индуктивном выводе, ошибки в дедуктивных умозаключениях, ошибки в доказательстве: по отношению тезису, аргументу, демонстрации <1>.

———————————

<1> Ивин А.А., Никифоров А.Л. Словарь по логике. М.: Гуманит. изд. центр «ВЛАДОС», 1997. С. 261.

В литературе приводятся и иные формально-логические ошибки, встречающиеся в экспертных заключениях, как, например:

— вывод не является логическим следствием осуществленного экспертом исследования;

— отсутствует логическая обусловленность последовательности стадий экспертного исследования;

— по одному и тому же предмету даны противоречивые выводы экспертов;

— заключение внутренне противоречиво;

— выводы эксперта недостаточно мотивированы <1>.

———————————

КонсультантПлюс: примечание.

Монография Е.Р. Россинской, Е.И. Галяшиной «Настольная книга судьи: судебная экспертиза» включена в информационный банк согласно публикации — Проспект, 2011.

<1> Россинская Е.Р., Галяшина Е.И. Настольная книга судьи. Судебная экспертиза. М., 2010.

Проиллюстрируем это примером. По делу о пожаре в универмаге в ходе комплексной экспертизы исследовались оплавленные медные провода. Эксперт-металловед сделал вывод, что причиной оплавления проводов явилось короткое замыкание, которое имело место до начала пожара. Основываясь только на этом, пожарно-технический эксперт заключил, что пожар возник из-за короткого замыкания в электропроводке. При оценке заключения эксперта судом был допрошен специалист, который показал, что короткое замыкание и возникновение пожара могли возникнуть последовательно, но независимо друг от друга. Эксперт пожарно-технической экспертизы должен был выявить наличие причинно-следственной связи между коротким замыканием в электропроводке и возникновением пожара. В частности, путем расчетов следовало установить возможность загорания от капель расплавленного металла объектов, находящихся непосредственно под проводом. А в случае положительного результата сопоставить полученную информацию со следовой картиной на месте пожара, например, очаговыми признаками или путями распространения огня. В данном же случае выводы эксперта были к тому же явно недостаточно мотивированы.

Распространенными логическими ошибками является несоответствие выводов и исследовательской части заключения. Здесь возможны следующие логические ошибки:

— исследовательская часть формулируется в вероятной форме, а выводы — в категорической, что из исследования не вытекает;

— исследовательская часть заключения не служит логическим основанием для экспертных выводов, т.е. отсутствует логическая обоснованность этих выводов промежуточными результатами;

— ответ на вопрос приведен только в выводах, а в исследовательской части обоснование этого ответа вообще отсутствует.

К логическим ошибкам нельзя причислять ошибки словесного выражения суждений эксперта. К числу последних относится широко известная омонимия — смешение или подмена понятий, происходящие вследствие того, что разные понятия часто выражаются похожими словами и словесными оборотами.

Логические ошибки следует отличать от фактических ошибок. Последние обусловлены не нарушением правил логики, а незнанием предмета, фактического положения дел. Фактические (предметные) ошибки проистекают от искаженного представления об отношениях между предметами объективной действительности. Следует подчеркнуть, что, как отмечают авторы учебника по криминалистике <1>, предметные ошибки, которые относятся к содержанию экспертного умозаключения, могут быть замечены и исправлены только тем, кто знаком с самим предметом, о котором идет речь. На практике имеют место случаи использования для обоснования экспертного вывода выявленных при исследовании одного объекта-носителя экспертами разных специальностей (или одним экспертом, владеющим специальными знаниями из разных специальностей) признаков, которые не могут образовывать совокупность, но должны анализироваться отдельно для каждого вида (рода) экспертиз. Поясним это на примерах.

———————————

<1> Аверьянова Т.В., Белкин Р.С., Корухов Ю.Г., Россинская Е.Р. Криминалистика: Учебник для вузов. Изд. 3-е, перераб. и доп. М., 2010. С. 397.

При идентификационном исследовании окурка со следами зубов и пальцев рук экспертом-трасологом, даже если он имеет право выполнять судебные дактилоскопические экспертизы и судебные трасологические экспертизы следов зубов, идентификационные признаки зубов в следах, которых недостаточно для категорического вывода об индивидуальном тождестве не могут быть дополнены признаками папиллярных узоров, также не образующих совокупность, необходимую для индивидуальной идентификации. Объектами исследования в данном случае будет не окурок, но следы. То же самое относится и к случаям, когда при идентификации орудия взлома по признакам следа-отображения вывод о тождестве делается и на основании исследования состава следов металлизации или следов лакокрасочного покрытия.

Деятельностные (операционные) ошибки связаны с осуществляемыми экспертом операциями (процедурами) и могут заключаться в:

а) нарушении предписанной последовательности этих процедур; б) неправильном использовании средств исследования или использовании непригодных средств, например, использование аппаратуры, давно не проходившей поверку; в) получении некачественного сравнительного материала и т.п.

Во многих случаях фактические ошибки сопровождаются деятельностными, и наоборот, деятельностные — фактическими, поскольку и те и другие связаны с профессиональной компетенцией эксперта и могут быть выявлены, как правило, только лицами, обладающими соответствующими специальными знаниями. Поэтому целесообразно рассматривать эти ошибки в комплексе по стадиям экспертного исследования как совокупности осуществляемых в определенной последовательности операций, действий, выполняемых на основе специальных знаний в связи с проведением исследования каких-либо объектов, являющихся вещественными доказательствами в целях поиска ответов на поставленные перед экспертом вопросы.

Технология экспертного исследования складывается из ряда составляющих, а именно:

— знания методических основ экспертного исследования;

— структуры экспертного заключения;

— критериев оценки промежуточных данных, получаемых в ходе исследования;

— формирования убеждения эксперта в обоснованности выводов;

— формулирования окончательных выводов;

— оформления результатов экспертизы.

Экспертное исследование основывается на методиках производства экспертиз различных классов, родов и видов, являющихся результатом специальных научных разработок. Методика экспертного исследования представляет собой систему познавательных средств, определяющих содержание и структуру исследования.

Решение задачи, поставленной перед экспертом, как правило, происходит в проблемной ситуации, в которой исход исследования и ответ на поставленный вопрос неочевидны и эксперту предстоит альтернативный выбор. Проблемные ситуации предопределяют характер процесса исследования как мыслительный и творческий характер, поскольку этот процесс порождает новое знание о фактах, имеющих значение для расследования и судебного разбирательства. Сущность и содержание процесса экспертного исследования как творческого акта зависят от вида задачи, вида объекта, степени и характера методической обеспеченности этого процесса.

Задачи, решаемые экспертом, могут быть типовыми, стандартными (чаще всего встречающимися) и творческими (эвристическими), требующими нестандартного подхода, разработки новой или модернизации действующей методики. Если задача типовая и решается с помощью стандартной методики, то она поддается алгоритмизации, формализующей процесс экспертного исследования. Эвристическая задача требует от эксперта высокой квалификации, совершенного владения методиками, умения находить нестандартное ее решение. Таким образом, познавательная деятельность эксперта представляет собой соотношение творческого начала и стандартности, зависит от научного уровня разработанных методик и методов решения задач экспертизы определенного рода и вида.

На современном уровне развития судебно-экспертной науки полная стандартизация и алгоритмизация всего процесса экспертного исследования невозможны. На долю эксперта всегда будет оставаться первоначальный анализ исходных данных (проблемная ситуация) и осмысление результатов проведенных исследований перед формулированием окончательного вывода, даже если само исследование осуществлялось по стандартной методике с высоким уровнем программирования деятельности эксперта на этапе собственно исследования объекта.

Процесс экспертного исследования сочетает в себе как стандартизованные компоненты, так и компоненты, определяющие действия эксперта ориентировочно, приблизительно, в общих чертах. Методика всегда содержит рекомендации и обязательные правила по узловым моментам, определяющим схему исследования. Все содержание конкретного экспертного исследования не может предусмотреть ни одна методика. Поэтому творческие компоненты обычно присутствуют в каждом экспертном исследовании.

Рассмотрим основные фактические и деятельностные экспертные ошибки по четырем стадиям экспертного исследования.

На подготовительной стадии эксперт знакомится с постановлением о назначении экспертизы, другими исходными материалами, уясняет задачи экспертизы, производит предварительный экспертный осмотр объектов исследования и сравнительных образцов и устанавливает их пригодность и достаточность для решения поставленных вопросов, выдвигает экспертные версии, намечает план экспертного исследования и выбор метода, группы методов или типовой методики, необходимой для осуществления судебной экспертизы.

Наиболее распространенные ошибки этой стадии:

— непригодность объектов для исследования;

— неверное представление об объектах исследования;

— недостаточное количество или низкое качество сравнительных образцов;

— ошибочные экспертные версии, которые впоследствии не были уточнены;

— выбор методов или методик исследования, не соответствующих объектам.

Ошибки этой стадии обычно трудно исправить на последующих стадиях экспертного исследования. Например, при исследовании больших объемов вязких, порошкообразных и жидких объектов неоднородной консистенции (нефтепродуктов, пищевых продуктов и пр.) недостаточно бывает отобрать образец только с одного участка, но отбирается несколько образцов с разных участков объема (с середины, края и т.д.) и средняя проба: взятые части объема объектов смешиваются, и эксперту передается часть этой смеси. В противном случае об объекте может сложиться неправильное представление.

В вышеприведенном примере, где исследовались оплавленные медные провода, пожарно-технический эксперт допустил не только логическую, но фактическую ошибку, не связав данные провода с электропроводкой универмага, т.е. не проверил, являлись ли представленные на исследование фрагменты частью электропроводки универмага. С этой целью он должен был запросить у следователя дополнительные материалы: электросхему объекта и характеристики электропроводки, фрагмент протокола осмотра места пожара с описанием процесса обнаружения и изъятия фрагментов электропроводов.

При производстве комплекса экспертиз по одному и тому же объекту, например, вышеуказанному окурку, ошибки могут быть связаны с неверной последовательностью проведения различных экспертиз, когда один эксперт, осуществляя свое экспертное исследование, разрушает невольно следы-объекты исследования другой экспертизы. Это ошибки руководителя экспертного учреждения или эксперта-организатора (ведущего эксперта), руководящего работой.

Здесь уместно остановиться на проблеме выбора метода экспертизы с точки зрения наименьшего разрушения объекта исследования. Одну и ту же информацию об объекте можно получить, применяя различные общеэкспертные методы. Например, элементный состав металлической частицы можно установить методами химического микроанализа, рентгеноспектрального анализа, эмиссионного спектрального анализа и др. Однако возможности методов неодинаковы. Методы обладают различной чувствительностью, избирательностью, могут быть качественными и количественными, относительными, требующими паспортизованных стандартных образцов и методами абсолютных измерений. Очевидно, что в зависимости от задачи, стоящей перед экспертом при производстве экспертиз, и существования соответствующих методик он должен в каждом конкретном случае выбирать метод или комплекс методов экспертного исследования.

Обеспечение сохранности объектов исследования диктуется прежде всего тем, что эти объекты, изучаемые при производстве судебных экспертиз и исследований, могут получить статус вещественных доказательств по уголовному или гражданскому делу, делу об административном правонарушении, и их согласно принципу непосредственности, действующему при судебном разбирательстве, необходимо представить в суд в неизменном виде (ст. 157 ГПК; ст. 10 АПК; ст. 240 УПК; ст. 26.6 КоАП). Сохранность вещественных доказательств обусловливает также возможность назначения повторных и дополнительных экспертиз.

Поэтому законодатель вменяет в обязанность судебному эксперту обеспечить сохранность представленных объектов исследований и материалов дела, а также уничтожать объекты исследований либо существенно изменять их свойства только с разрешения органа или лица, назначивших судебную экспертизу <1>. Аналогичная норма содержится в п. 3 ч. 4 ст. 57 УПК, где указывается, что эксперт не вправе проводить без разрешения дознавателя, следователя, суда исследования, могущие повлечь полное или частичное уничтожение объектов либо изменение их внешнего вида или основных свойств. Попутно заметим, что под повреждениями объектов исследования законодатель понимает изменение их свойств и состояния в результате применения физических, химических, биологических методов при проведении исследований <2>. Будет ли разрушение или видоизменение объекта экспертной ошибкой? Возможно ли вообще исследование без какого-либо воздействия на объект?

———————————

<1> Статья 16 ФЗ ГСЭД.

<2> Статья 9 ФЗ ГСЭД.

В литературе обычно даются рекомендации применять в первую очередь неразрушающие (недеструктивные) методы. Но понятие разрушающего и неразрушающего методов более детально не конкретизируется, хотя применительно к объектам судебных экспертиз оно далеко не однозначно. В связи с этим неясно: если объект можно многократно исследовать одним методом, но после первого из этих исследований данный объект будет уже непригоден для анализа другим методом, будет ли первый метод разрушающим? Возможен и обратный вариант: второй раз исследование данным методом повторить нельзя, но можно использовать вместо него множество других.

Так, метод оптической микроскопии при исследовании волокон для установления их родовой (групповой) принадлежности требует изготовления тонких срезов, не разрушающих целостность объекта. Для реализации метода растровой электронной микроскопии, формально также неразрушающего, часто требуется либо создание электропроводящего покрытия, либо фиксация образца в слое электропроводящего материала (например, графита).

Методы рентгеноанализа, применение которых не вызывает убыли образца, в ряде случаев требуют пробоподготовки, при которой нарушается целостность всего объекта. Так, при больших размерах объекта для рентгеноспектрального или рентгеноструктурного анализа берется его часть в соответствии с размерами держателя для проб. Условием успешного проведения анализа может быть приготовление образца в виде мелкодисперсного порошка (рентгенофазовый анализ) или шлифование объекта до получения гладкой плоской поверхности (металлография).

В некоторых случаях при исследовании многофазных образований, например частиц многослойных лакокрасочных покрытий, само исследование может не требовать пробоподготовки, однако для успешной расшифровки спектрограмм объект разделяется на отдельные слои. И хотя при этом они не изменяются, самого объекта — частицы лакокрасочного покрытия как вещественного доказательства — уже не существует.

Может быть, однако, и такой вариант, когда не происходит даже изменения формы и внешнего вида объекта, но в результате исследования изменяются какие-то его свойства или параметры. Это особенно характерно для методов изучения отдельных физических и химических свойств. Так, при использовании дифференциально-термического метода, суть которого заключается в определении тепловых эффектов различных фазовых превращений в материалах и установлении соответствующих им температур или интервалов температур (критических точек), зависящих от состава и структуры материала, фазовые переходы при нагревании или охлаждении могут иметь необратимый характер. Возможно также снятие макронапряжений и изменение тонкой рентгеновской структуры (размеров рентгеновских блоков и величин микронапряжений).

Таким образом, многие считающиеся неразрушающими общеэкспертные методы, строго говоря, не являются таковыми согласно критериям «большой науки». При их использовании может остаться неизменным состав, но в результате пробоподготовки нарушается целостность, изменяются характеристики объекта. Все это делает внешне неизмененный объект по сути другим, и возможность многих исследований, в том числе и повторных, безвозвратно утрачивается.

Резюмируя вышесказанное, можно заключить, что разрушающим является метод экспертного исследования, который при своей реализации приводит либо к разрушению объекта в целом или исследуемого образца, либо к необратимым изменениям состава, структуры или отдельных свойств объекта при сохранении его формы и внешнего вида. В соответствии с градацией методов экспертного исследования в зависимости от степени сохранности объекта они подразделяются на методы:

а) никак не влияющие на объект и не требующие для реализации пробоподготовки;

б) не разрушающие объект, но изменяющие его состав, структуру или отдельные свойства;

в) не разрушающие образец, но требующие для его изготовления разрушения или видоизменения объекта;

г) полностью или частично разрушающие образец или объект исследования.

Сказанное выше относится к объектам, имеющим определенную форму. Что касается жидких и сыпучих тел, то если объект имеется в достаточном количестве, разрушение незначительной его части не имеет большого значения. Необходимо только до начала отбора проб точно определить количество объекта, его вес, объем. Незначительное количество вещества, необходимого для анализа, и отсутствие у объекта исследования устойчивой формы позволяет условно считать примененный в данном случае метод исследования практически неразрушающим. Например, на месте происшествия обнаружен пакет вещества, похожего на наркотическое. После взвешивания и фотографирования пакета незначительную часть вещества можно использовать для тестового исследования с помощью стандартного набора для выявления наркотических веществ путем химических капельных реакций. Незначительное количество вещества, необходимого для анализа, и отсутствие у объекта исследования устойчивой формы позволяют условно считать примененный в данном случае метод исследования практически неразрушающим.

В то же время, если наркотическое вещество обнаружено в следовых количествах, подобное предварительное исследование, безусловно, будет разрушающим и не должно проводиться ни в коем случае до вынесения постановления о назначении экспертизы. В противном случае вещество будет истрачено, а результаты исследования не будут иметь никакого доказательственного значения.

Вернемся теперь к случаю, когда один и тот же объект, например окурок, является носителем следов — объектов разных судебных экспертиз. Здесь ошибки фактические и операционные могут быть допущены как на подготовительной стадии экспертного исследования при выборе последовательности действий, методов и методик методов, так и на аналитической стадии исследования и в ходе экспертных экспериментов при применении этих методов и методик.

Следует подчеркнуть, что применение неразрушающих методов — не самоцель и может быть неэффективным в данном конкретном случае, когда полную информацию об объекте экспертного исследования удается получить только при его разрушении. Выбор методики исследования иногда зависит не только от объекта, но и от сложившейся ситуации. Использование только неразрушающих методов (при отсутствии необходимой аппаратуры) может привести к затягиванию сроков выполнения судебных экспертиз и иметь негативные последствия при раскрытии и расследовании преступлений, судебном рассмотрении уголовных и гражданских дел, дел об административных правонарушениях. В заключении судебной экспертизы следует мотивировать необходимость частичной или полной деструкции объекта исследования; если же объект только видоизменен, указать, какие его свойства и признаки изменились. Объект должен быть как можно подробнее описан, сфотографирован по правилам узловой и детальной съемки.

Что же касается требования законодателя о получении разрешения органа или лица, назначивших судебную экспертизу, на уничтожение либо существенное изменение свойств объектов судебных экспертиз, то в условиях современного судопроизводства оно представляется декларативным и далеким от существующих реалий экспертной практики.

На аналитической стадии в процессе раздельного исследования для решения идентификационных задач осуществляется сначала тщательное изучение объектов экспертизы, анализируются общие и частные признаки объектов, производятся экспертные эксперименты. Результатом этой стадии является выделение наибольшего количества идентификационных признаков каждого из сравниваемых объектов, изучение его идентификационного поля.

При диагностическом исследовании решаются простые диагностические задачи, для чего также изучаются признаки объекта и по ним определяются его свойства и состояние, например, устанавливается химический состав микрочастиц взрывчатого вещества с места происшествия.

Для изучения этих свойств и признаков применяются различные методы и методики экспертного исследования. Здесь экспертные ошибки связаны как с выбором этого инструментария, так и с особенностями его применения.

В идеале для исследования каждого вида объектов в судебной экспертизе должна существовать методика судебно-экспертного исследования, т.е. система категорических или альтернативных научно обоснованных предписаний по выбору и применению в определенной последовательности и в определенных существующих или создаваемых условиях методов, приемов и средств (приспособлений, приборов и аппаратуры) для решения экспертной задачи <1>. Категорический или альтернативный характер методики, т.е. отсутствие или наличие у эксперта возможности выбора, зависит от существа избираемых методов и средств. В содержание методики могут входить и ожидаемые результаты или их варианты, а в последнем случае, и рекомендации по оценке значения каждого варианта.

———————————

<1> Подробнее об этом см.: Аверьянова Т.В. Судебная экспертиза. Курс общей теории. М., 2006; Россинская Е.Р., Галяшина Е.И., Зинин А.М. Теория судебной экспертизы: Учебник / Под ред. Е.Р. Россинской. М., 2009.

Следует подчеркнуть, что целью создания судебно-экспертной методики является не просто получение новой информации об объекте исследования, а решение определенных экспертных задач, и в этом ее отличие от научных методик исследования аналогичных объектов, часто использующих те же методы. Отсюда использование без какой-либо модификации и критического переосмысления для исследования вещественных доказательств методик, разработанных в «большой науке», нередко приводит к экспертным ошибкам. Эти ошибки, связанные с незнанием специфики объектов, допускают обычно эксперты-выпускники естественно-научных факультетов университетов и технических вузов, не имеющие специального экспертного образования и опыта практической экспертной деятельности.

Наиболее типичной такой ошибкой является отсутствие четких представлений о микрообъектах, их природе и связи с макрообъектами. Заметим, что далеко не всегда микрообъект позволяет охарактеризовать все свойства и признаки макрообъекта. А при решении идентификационных задач очень важно правильно выбрать именно те признаки, которые позволят осуществить идентификацию. Проиллюстрируем этот тезис на примере.

По следу металлизации на кости необходимо было идентифицировать один из пяти самодельных ножей, которым совершено убийство. Ножи принадлежали пяти подозреваемым и были изготовлены кустарно, из полотен напильников. Эксперт, использовав рентгено-флуоресцентный спектральный анализ, установил, что след металлизации образован железом и не нашел в железе необходимых примесей легирующих элементов (хрома, марганца, вольфрама, молибдена и пр.), характерных для легированной стали. На этом основании он сделал вывод, что ни один нож не мог оставить этот след металлизации. Но приглашенный следователем специалист разъяснил, что в таком случае нож был изготовлен из низкосортной стали и им не могли быть оставлены такие следы металлизации. Ошибка эксперта состояла в том, что микрообъект был слишком мал и концентрация в нем легирующих элементов не соответствовала средней концентрации этих элементов в макрообъекте. В ходе повторной экспертизы был использован метод рентгеноструктурного фазового анализа, который позволил по кристаллическим фазам железа идентифицировать один из ножей.

Заметим, что экспертом должны соблюдаться и указанные в методике так называемые граничные условия ее применения, т.е. те условия, при которых использование методики допустимо, а полученные результаты отвечают критериям достоверности, надежности, точности и обоснованности. Эти условия могут касаться объектов исследования, используемых методов, аппаратуры. Например, экспертная методика установления причин оплавления алюминиевых проводников (пожар или аварийный режим) может использоваться только в том случае, если проводники не нагревались до температуры свыше 650 град. C.

Экспертные ошибки на этапе индивидуализации каждого объекта в отдельности связаны с выявлением и анализом общих (групповых) и частных признаков.

Для диагностического исследования, когда простая задача служит для решения более сложной, на основании результатов решения простых задач и полученных в результате диагностических признаков производится построение типовой модели (реконструкция) процесса, способа действия, события, явления. Например, на основании состава взрывчатого вещества и анализа повреждений производится моделирование условий взрыва. Здесь могут быть допущены ошибки моделирования.

На стадии сравнительного исследования ошибки допускаются при выявлении совпадений или различий признаков сравниваемых объектов между собой, со сравнительными образцами или эталонами, сопоставлении выявленных идентификационных признаков, присущих каждому объекту, и установлении совпадающих и различающихся. При сравнительном исследовании следует сопоставлять только аналогичные сравниваемые признаки. Однако в ряде случаев точечный след сравнивается с линейным, прямое отображение с зеркальным и т.д. Сравнительное исследование при решении сложной диагностической задачи заключается в выведении следствий из полученной модели и сравнении гипотетических следствий с реально установленными признаками объектов диагностирования.

Хотя данная стадия заканчивается установлением совпадений и различий признаков сравниваемых объектов (моделей), но совпадение признаков еще не говорит о тождестве (установлении механизма события, явления. процесса), а их различие — об его отсутствии. Ошибкой является завершение исследования констатацией совпадений или различий, отсутствие в экспертном заключении описания стадии оценки признаков, на которой происходит суммирование результатов исследования, подведение его итогов и формулирование выводов.

Экспертные эксперименты можно производить практически на всех промежуточных стадиях экспертного исследования. В ходе экспертных экспериментов в контролируемых и управляемых условиях исследуются объекты или явления. Эксперимент состоит в производстве опытов в целях установления конкретного факта и причинной связи между фактами, явлениями; выяснения механизма следообразования; получения образцов для сравнительного исследования (например, получение образцов пуль для сравнительного исследования следов близкого выстрела); установления причинно-следственной связи аварийного режима в электропроводке и возникновения пламенного горения в пожарно-технической экспертизе; исследования свойств изделия (например, при установлении твердости или упругости материала). Однако результаты экспертного эксперимента получают доказательственное значение лишь при их отражении в выводах эксперта.

При проведении экспертного эксперимента допускаются ошибки в воспроизведении признаков проверяемого объекта, неверно толкуется механизм следового взаимодействия и его возможности в конкретных условиях (ситуациях). Ошибки экспертных экспериментов связаны также с выбором методов исследования, определением последовательности действий, т.е. с экспертными технологиями.

На завершающей стадии экспертного исследования при формулировании выводов помимо логических ошибок, о которых упоминалось выше, могут быть допущены фактические и операционные ошибки. К таким ошибкам относится отсутствие синтезирующей части в заключении комиссионной или комплексной экспертизы. При производстве комплексных экспертиз неверная интерпретация одними членами комиссии экспертов признаков или промежуточных выводов, выявленных другими экспертами.

Остановимся подробнее на ошибках при формулировании выводов судебной экспертизы.

Идентификационные категорические положительные или отрицательные выводы формулируются как при установлении общеродовой или групповой принадлежности, так и при решении вопроса об индивидуально-конкретном тождестве.

Диагностические выводы формулируются в случаях, когда объект известен, т.е. существующий класс его четко определен, и необходимо уяснить свойства и состояние объекта; время (давность) изготовления объекта, каково было его первоначальное состояние; механизм события, явления, процесса, например способ и последовательность, в том числе направление нанесения повреждений или образования следов, динамику возникновения и развития пожара и т.п.

Вероятные выводы формулируются, например, в случаях недостаточности информации, полученной при изучении выявленных признаков при идентификации, касающейся единичного, конкретного объекта (факта).

Нередко эксперты смешивают категорический вывод о родовой (групповой) принадлежности с вероятным выводом. Более того, вывод в вероятной форме дается чисто умозрительно, без всякого обоснования, хотя так же как и при категорическом суждении, такой вывод должен основываться на достаточной совокупности достоверно установленных промежуточных данных и высокой степени вероятности их существования. В противном случае следует отказаться от решения вопроса. Хотя использование таких выводов правоприменителем и ограниченно, но они не должны быть голословными, поскольку могут оказать помощь при выдвижении и проверке версий, установлении существования фактов и пр.

В формулировках выводов независимо от той или иной их формы недопустимо использовать такие выражения, как «не исключено», «не обнаружено», «не выявлено», «не отмечается» и т.п., так как они вызывают либо неправильное (в том числе двоякое) толкование, либо сомнение в выводе эксперта в целом. При употреблении, например, слов «не обнаружено» неясность напрашивается по нескольким основаниям. Не обнаружено, т.е. не имеется, либо эксперт не смог обнаружить в силу его недостаточной квалификации либо отсутствия соответствующих технических средств, неразработанности методик исследования. Также недопустимо употребление таких выражений, как «эксперт не нашел… не усматривает» и т.п.

.

Перейти к оглавлению: Россинская Е.Р. Судебная экспертиза: типичные ошибки. М.: Проспект, 2012. 544

Предложите, как улучшить StudyLib

(Для жалоб на нарушения авторских прав, используйте

другую форму
)

Ваш е-мэйл

Заполните, если хотите получить ответ

Оцените наш проект

1

2

3

4

5

Систематическая ошибка (bias) исследования — это фактор, который приводит к неверной оценке ассоциации между изучаемым воздействием и эффектом. Даже самое строгое планирование условий исследования не избавляет от влияния ошибок, связанных с принципом отбора пациентов, сбора, передачи и интерпретации информации. Вот почему в ходе оценки полученных результатов необходимо критически анализировать возможность того, что выявленные ассоциации связаны с влиянием систематической ошибки, и дать оценку вероятности такого объяснения. В отличие от вероятности случайности ассоциации, которая может получить количественную оценку, эффект влияния систематической ошибки трудно поддается оценке, а нередко может просто оказаться неучтенным. В этой связи ключевым моментом в планировании любого исследования является создание таких условий, в которых любое возможное влияние систематической ошибки было бы заранее принято во внимание и сведено к минимуму. Однако даже при соблюдении этих условий на этапе планирования, на заключительном этапе необходимо оценить: не могла ли систематическая ошибка все-таки закрасться в исследование, каков вероятный источник этой ошибки, в каком направлении она могла повлиять на полученные результаты?

Имеются многочисленные классификации систематических ошибок, однако принципиально можно выделить два вида, в рамках которых есть отдельные варианты.

Первый вид можно обозначить как ошибку отбора (selection bias), источник которой — принцип отбора субъектов для участия в исследовании.

Второй вид обозначается как обсервационная, или информационная, ошибка (observation or information bias), и данный вид систематической ошибки связан с оценкой информации, касающейся патогенного воздействия и его эффекта (Shadish W. R. [et al.], 2001; Rossi P. H. [et al.], 2004; Rothman K. J. [et al.], 2008; Straus S. E., 2011).

Ошибка отбора. Отбор индивидуумов для участия в большинстве аналитических исследований проводится с учетом имевшего место патогенного воздействия (в когортных исследованиях) либо имеющегося эффекта этого воздействия, например развившегося заболевания (в исследованиях типа «случай — контроль»). Принципиально важно, чтобы на этапе отбора пациентов изучаемое воздействие и изучаемый эффект этого воздействия не учитывались одновременно и не могли одновременно влиять на принятие решения об отборе пациентов для участия в исследовании. Несоблюдение этого условия является источником ошибки отбора. Ошибка отбора возможна, если в исследовании «случай — контроль» отбор испытуемых каким-то образом связан с имевшим место патогенным воздействием, а в ко-гортных исследованиях — с установленным фактом развития заболевания. Ошибка отбора представляет наибольшую опасность для исследований «случай — контроль» и ретроспективных когортных исследований, так как к началу тех и других уже имеется информация о патогенном воздействии и развитии заболевания. Напротив, ошибка отбора маловероятна при осуществлении проспективных когортных исследований, когда на начальной стадии имеется лишь информация о воздействии, но отсутствуют сведения о его эффекте (Кельмансон И. А., 2002).

Ошибку отбора могут спровоцировать многочисленные обстоятельства, влияющие на подход к отбору пациентов для участия в исследовании:

  • различия в медицинском наблюдении за отдельными лицами;
  • частота обращений пациентов за медицинской и психологической помощью;
  • качество диагностики и т. п.

Кроме того, в исследованиях типа «случай — контроль» причиной ошибки отбора могут быть различия в высказывании согласия участвовать в исследовании лиц, относящихся к двум сопоставляемым группам. Например, семьи, характеризуемые низким социальным статусом, по ряду причин могут с большей вероятностью отказаться от участия в исследовании в качестве контрольных наблюдений, если целью такого исследования является изучение ассоциации между социальным неблагополучием и риском какого-либо заболевания.

Обсервационная (информационная) ошибка возникает в связи с систематическими различиями в способах получения информации об имевшемся предполагаемом патогенном воздействии или развитии заболевания в сопоставляемых группах. Если собранные данные являются неполными или неточными и в сопоставляемых группах эта неточность варьирует, не исключена возможность выявления ложной ассоциации. В зависимости от источника происхождения различают несколько вариантов обсервационных ошибок:

Ошибка воспроизведения (recall bias) возникает:

  • когда лица, страдающие анализируемым заболеванием, способны воспроизвести информацию о предполагаемом патогенном воздействии в предшествующий период иначе, нежели лица, не страдающие этим заболеванием. Такая ситуация особо вероятна в исследованиях «случай — контроль»;
  • когда лица, подвергшиеся изучаемому воздействию, способны предоставить информацию о потенциальных последствиях этого воздействия иным образом, чем те обследуемые, которые не испытали на себе патогенного воздействия (в проспективных когортных исследованиях).

Естественно, сказанное относится не только к самим обследуемым, но и к их окружению: родителям, другим родственникам, медицинскому персоналу. Ошибка воспроизведения может приводить как к недооценке, так и к переоценке выраженности предполагаемой ассоциации в зависимости от того, как наличие патологического состояния у обследуемых лиц влияет на получаемую информацию.

Ошибка интервьюера (interviewer bias) возникает в связи с систематическими различиями в методике сбора, регистрации и интерпретации интервьюерами информации, полученной у отдельных участников исследования независимо от дизайна исследований:

  • В исследованиях «случай — контроль» возникает особая опасность: осведомленность интервьюера о наличии или отсутствии заболевания у обследуемых может способствовать большей склонности к поиску и обнаружению предшествующих патогенных воздействий у лиц, страдающих заболеванием.
  • В ретроспективных когортных исследованиях существует та же опасность осведомленности интервьюера и опасность информационной ошибки в форме ошибки интервьюера.
  • В интервенционных исследованиях может наблюдаться ошибка интервьюера, если не используется плацебо-контроль и слепой метод .

Источником систематической информационной ошибки в когортных исследованиях может послужить фактор потери обследуемых (loss to follow-up) в ходе динамического наблюдения , особенно если процент таких потерь существенно различается в зависимости от отношения обследуемых к изучаемому воздействию и его эффекту.

Еще одним вариантом информационной ошибки является неверная классификация (misclassification), при которой неверно оценивается факт имевшегося патологического воздействия или его эффекта. Ошибки классификации неизбежно возникают в ходе любого исследования, однако их опасность становится наиболее значимой, если наличие изучаемого патологического состояния у пациента в определенном направлении влияет на качество распознавания предшествовавшего патогенного воздействия, или, напротив, факт патогенного воздействия в определенном направлении влияет на распознавание патологического состояния, связанного с этим воздействием , Такая ситуация именуется дифференцированной ошибкой, которая может существенно искажать результаты исследования.

Важнейшим принципом, которым следует руководствоваться для предотвращения систематической ошибки, является тщательное планирование исследования. В некоторых случаях можно усмотреть ошибку в ходе исследования и принять меры к ее минимизации или устранению, однако при наличии ошибки отбора ее устранение может представляться маловероятным. Вот почему стадия планирования исследования является в этом отношении критичной.

Можно отметить несколько ключевых позиций, учет которых позволяет избежать систематических ошибок. В их числе принцип формирования обследуемой выборки, требования к источникам информации, методики сбора и анализа данных. Имеются многочисленные факторы, которые предопределяют, в какой мере подходы к формированию выборки повлияют на снижения вероятности систематической ошибки , Например, использование госпитальных контрольных наблюдений в исследованиях «случай — контроль» позволяет улучшить сопоставимость обследуемых с точки зрения их желания принять участие в исследовании, нивелировать влияние факторов, предопределивших выбор медицинского учреждения, куда были госпитализированы пациенты и где они были обследованы. Указанные обстоятельства позволят снизить вероятность ошибки, связанной с отказом пациентов от участия в исследовании, избежать ошибки отбора и воспроизведения , Для когортных исследований и клинических испытаний, когда принципиальна возможность следить за судьбами обследуемых в течение заданного промежутка времени, основой отбора нередко является наличие точных сведений о месте жительства и занятости испытуемых. Кроме того, включение в исследование тех лиц, которые имеют повышенный риск развития изучаемого заболевания, позволяет ожидать большей заинтересованности в сотрудничестве с исследователем и более регулярных контактах.

Во многих аналитических исследованиях методика сбора информации может оказать принципиальное влияние на полученные результаты. С практической точки зрения минимизировать влияние систематической информационной ошибки удается, если обеспечены:

  • создание специального инструментария сбора информации в форме тестов, опросников, стандартных бланков и т. п.;
  • разработка такого протокола исследования, который позволит оптимально использовать выбранный инструментарий. Независимо от того, какова методика исследования, она должна последовательно реализовываться в процессе сбора информации в каждой из сопоставляемых групп (Кельмансон И. А., 2002).

Инструментарий. Наиболее существенным резервом снижения влияния систематической ошибки является использование максимально стандартизованных и объективных методик. Если предметом исследования являются показатели артериального давления, информацию обеспечивают данные анкетирования пациентов и данные нескольких измерений, проведенных квалифицированным медицинским персоналом с соблюдением техники измерения; очевидно, второй способ является более объективным и, следовательно, более предпочтительным. Если же источником информации является опрос обследуемых, следует стремиться к максимальной точности формулировок вопросов и однозначности их интерпретации анкетируемыми.

Протокол. Важнейшим подходом к минимизации потенциальной ошибки является стремление к сбору информации «вслепую». Персонал, который осуществляет сбор данных или обследование пациентов, не должен быть осведомлен о том, испытал ли пациент изучаемое воздействие, если проводится проспективное когортное или интервенционное исследование. Персонал не должен быть осведомлен о том, имеется ли у пациента изучаемое заболевание, предполагаемый эффект воздействия, если изучается возможное влияние предшествовавшего патогенного воздействия в ходе исследования «случай — контроль» . Более того, весьма желательно, чтобы сами обследуемые лица, по возможности, были минимально осведомлены о том, каков их собственный статус в исследовании, а также о том, какова суть гипотезы исследования. Очевидно, пределы неосведомленности во многом определяются этическими соображениями. Хотя эффективность исследования «вслепую» является доказанной с точки зрения снижения риска систематической информационной ошибки, полное соблюдение этого принципа не всегда представляется возможным.

Регламентация. Не менее важным подходом, позволяющим снизить потенциальный риск информационной ошибки, является обучение персонала стандартной и строгой методике сбора данных, использование четко регламентированного протокола исследования. Иногда берутся на вооружение специальные приемы, позволяющие заподозрить нарушения протокола, несоблюдение идентичности подхода к сбору информации в двух сопоставляемых группах. Так, возможно сопоставление частоты, с которой лица, относящиеся к двум группам, указывают на наличие у них фиктивных переменных (dummy variables), никак не связанных ни с предполагаемым патогенным воздействием, ни с изучаемым заболеванием или, напротив, имеющих с ними доказанную, четко определенную связь.

Пример
При исследовании возможной ассоциации между приемом матерью транквилизаторов во время беременности и риском нарушений сна у ребенка первого года жизни можно попросить обследуемых женщин дать ответ на вопрос: принимали ли они во время беременности, кроме транквилизаторов, иные лекарственные препараты, в частности такие лекарства, для которых доказано отсутствие связи с последующим риском нарушений сна у ребенка. Например, можно попросить ответить на вопрос о приеме ими слабительных препаратов. Если сопоставление частоты употребления лекарственных препаратов во время беременности женщинами, дети которых имели нарушения сна, и женщин, дети которых не имели нарушений сна, выявит более частое использование транквилизаторов у женщин из первой группы, но не выявит различий в использовании слабительных, можно думать о том, что ассоциация действительно является значимой. Напротив, наличие достоверных различий между двумя сопоставляемыми группами в частоте использования и транквилизаторов и слабительных позволит заподозрить, что они связаны с влиянием ошибки воспроизведения или ошибки интервьюера. С другой стороны, в опросник можно было бы включить сведения о курении матери во время беременности — доказанном факторе риска нарушений сна у ребенка первого года жизни (Kelmanson I. A., 2009). Если в ходе исследования одновременно с выявлением ассоциации между использованием матерью транквилизаторов во время беременности и риском нарушений сна у ребенка будет также воспроизведена и доказанная ассоциация между курением матери во время беременности и риском нарушений сна у ребенка, это может послужить дополнительным аргументом в пользу валидности исследования.

Дублирующие вопросы. В опросник включают несколько вопросов, сформулированных по-разному, но принципиально направленных на поиск одной и той же ассоциации. Различия в выявленных ассоциациях, оцениваемых на основе ответов на дублирующие друг друга вопросы, могут навести на мысль о существовании систематической ошибки. Учет времени, потраченного интервьюером на беседу с пациентом, позволяет определить, не тратит ли интервьюер систематически больше или меньше времени на получение информации у представителей той или иной группы, что также может явиться источником систематической ошибки.

Наконец, может быть полезным включение в опросник шкалы, позволяющей интервьюеру дать собственную субъективную оценку того, насколько конкретный пациент адекватно воспринимает задаваемые ему вопросы и дает на них ответы. В дальнейшем субъекты с неудовлетворительными оценками качества своих ответов могут быть исключены из исследования или проанализированы отдельно.

Источник информации оказывает существенное влияние и на вероятность систематической ошибки. Сведения об имевшемся патогенном воздействии и о наличии заболевания могут быть получены в результате непосредственного опроса обследуемых лиц, анализа медицинской документации, статистики рождаемости и смертности, а также в результате непосредственного измерения интересующих показателей. Наиболее надежным источником информации следует признать медицинскую документацию, оформленную до начала исследования, как наименее подверженную влиянию субъективных оценок, связанных с целями и задачами исследования, и максимально свободную от влияния информационной ошибки. В то же время такие архивные документы могут не содержать сведений о ряде признаков, непосредственно интересующих исследователя. Более того, степень информационных пробелов может существенно различаться в отдельных сопоставляемых группах наблюдений.

Пример
Анализ архивных документов, относящихся к детям из отдельных категорий риска (недоношенные, маловесные, имеющие врожденные пороки развития и т. п.), убеждает в более пристрастном отношении медицинских работников к активному выявлению отягощающих моментов акушерско-гинекологического анамнеза, чем в случае рождения ребенка без явных клинических признаков патологии (Кельмансон И. А., 2002). Данный пример иллюстрирует необходимость по мере возможности использовать и сопоставлять различные источники информации.

Исследования, основанные на анализе медицинской документации, могут предполагать использование стационарных историй болезни, патологоанатомических протоколов, а также амбулаторных данных. Сведения, полученные с помощью опросников и анкетирования обследуемых субъектов, могут дополняться и верифицироваться данными анализа медицинской документации. Следует понимать, что потребность в верификации данных о наличии патогенного воздействия или заболевания во многом зависит от самой природы изучаемого заболевания. Все анализируемые воздействия и вероятные исходы этих воздействий должны иметь четкие критерии для их констатации. В случаях распознавания отдельных заболеваний (патологических состояний) нередко говорят о существовании принятого «золотого стандарта», и качество исследования во многом определяется тем, использовался ли этот стандарт для верификации диагноза. Нередко в качестве «золотого стандарта» выступают критерии, разработанные экспертами ВОЗ или иными авторитетными экспертами на основе консенсуса.

Несмотря на усилия избежать систематической ошибки на стадии планирования исследования, всегда существует вероятность ее наличия. Вот почему на стадии анализа и обсуждения полученных результатов требуется дать критическую оценку:

  • Какая ошибка и в какой мере могла повлиять на полученные результаты?
  • В каком направлении — маскирования истинной ассоциации или ее гиперболизации — систематическая ошибка могла повлиять на полученные результаты?
  • Какова возможная степень этого искажения?

Такие оценки не имеют количественного выражения и не могут быть проверены с использованием какого-то статистического критерия: они основаны лишь на здравом смысле и понимании конкретной клинической ситуации, сопряженной с исследованием.

Следует также иметь в виду, что отдельные варианты исследований в разной мере подвержены влиянию систематических ошибок конкретных видов:

—    Исследования «случай — контроль». В максимальной степени возможна ошибка, связанная со следующими обстоятельствами:

  • сведения о статусе обследуемого в отношении наличия или отсутствия у него заболевания могут влиять на принятие решения в отношении имевшегося патогенного воздействия (ошибка воспроизведения);
  • сведения об имевшемся или отсутствовавшем патогенном воздействии могут повлиять на выявление распознаваемого заболевания (ошибка отбора) (Кельмансон И. А., 2002).

—    Когортные исследования, Особую тревогу вызывает ошибка, связанная с потерями обследуемых в ходе динамического наблюдения .

—    Интервенционные исследования. Вероятность обсервационной ошибки зависит во многом от характера сопоставляемых групп, использования плацебо и степени объективности оценки результатов.

В любом исследовании возможна ошибка классификации. При этом принципиально важно следующее:

  • дифференцированная ошибка может приводить как к занижению, так и к завышению реальной ассоциации;
  • недифференцированная ошибка приводит лишь к занижению ассоциации .

29

используя другие входные точки. Решение проблемы необходимо для дальнейшей работы с ключевыми функциями тестируемой системы.

Значительная (Major). Значительная ошибка – ошибка, при которой часть основной бизнес-логики работает некорректно. Ошибка некритична или есть возможность для работы с тестируемой функцией, используя другие входные точки.

Незначительная (Minor). Незначительная ошибка не нарушает бизнеслогику тестируемой части приложения, очевидная проблема пользовательского интерфейса.

Тривиальная (Trivial). Тривиальная ошибка не касается бизнес-логики приложения, это плохо воспроизводимая проблема пользовательского

интерфейса; проблема сторонних библиотек или сервисов; проблема, не оказывающая никакого влияния на общее качество продукта.

Также полезно указать приоритет исправления каждого дефекта. · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·

Приоритет (priority) – это атрибут, указывающий на очеред-

ность выполнения задачи или устранения дефекта.

· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·

Чем выше приоритет, тем быстрее нужно исправить дефект. Например, слово, напечатанное с ошибкой, может иметь самый низкий уровень серьезности, но перед релизом эта ошибка может иметь наивысший приоритет и должна быть экстренно исправлена.

Градация приоритета дефекта может быть следующая:

Высокий (High). Ошибка должна быть исправлена как можно быстрее, т. к. ее наличие является критической для ПО.

Средний (Medium). Ошибка должна быть исправлена, ее наличие не является критичной, но требует обязательного решения.

Низкий (Low). Ошибка должна быть исправлена, ее наличие не является критичной и не требует срочного решения.

За время своей жизни дефекты проходят определенные стадии, которые характеризуются их статусами.

30

· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·

Жизненный цикл бага (bug workflow) – последовательность

этапов, которые проходит баг на своем пути с момента его создания до окончательного закрытия.

· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·

Самый простой жизненный цикл (workflow) без применения инструментальных средств: тестировщик приходит к разработчику и просто сообщает об ошибке, но здесь есть риск, что разработчик может забыть про ошибку и не исправить ее. Поэтому обычно в IT-компаниях дефекты документируют в системах учета дефектов (баг-трекинговые системы, bug tracking system, BTS, bug-tracker)

с возможностью общего доступа к ним. Существует множество таких систем, которые позволяют не только создавать задачи, менять их статусы, но и создавать отчеты об инцидентах (баг-репорты, bug report).

На рынке ПО предложено огромное количество bug-tracker, среди них есть и свободно распространяемые и платные.

Например:

Redmine – открытое серверное веб-приложение для управления проектами и задачами (в том числе для отслеживания ошибок).

Bugzilla – свободная система отслеживания ошибок (баг-трекинга) с веб-интерфейсом.

Jira – коммерческая система отслеживания ошибок, предназначена для организации взаимодействия с пользователями, хотя в некоторых случаях используется и для управления проектами.

Mantis – свободно распространяемая система отслеживания ошибок в программных продуктах. Обеспечивает взаимодействие разработчиков с пользователями, позволяет пользователям создавать сообщения об ошибках и отслеживать дальнейший процесс работы над ними со стороны разработчиков. Система имеет гибкие возможности конфигурирования, что позволяет настраивать ее не только для работы над про-

граммными продуктами, но и в качестве системы учета заявок.

В каждой BTS наименования важности (серьезности), приоритеты и статусы дефектов могут отличаться от приведенных и зависят от конкретной системы, но суть от этого не меняется. Рассмотрим распространенные атрибуты жизненного цикла.

31

· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·

Статус (status) – основной атрибут, определяющий текущее

состояние дефекта.

· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·

Статус отражает меру активности бага от начального состояния, когда он еще не подтвержден как баг, до завершения, когда баг исправлен/решен. Набор атрибутов зависит от конкретной BTS, но чаще встречаются следующие:

NEW (Новый). Дефект только что зарегистрирован, в зависимости от анализа дефекта его статус меняется на Отказ или Назначен.

ASSIGNED (Назначен) или OPEN (Открыт). Дефект просмотрен и открыт (можно сказать, признан) для исправления и может быть назначен на другого сотрудника или переведен в состояние NEW.

REOPENED (Открыт заново). Дефект был решен ранее, однако возникла необходимость вернуться к нему (решение было неверным либо неокончательным).

CLOSED (Закрыт). В результате определенного количества циклов баг все-таки окончательно устранен и больше не потребует внимания команды – он объявляется закрытым.

Резолюция – очень важный атрибут, напрямую связанный со статусом, т. е. резолюция – это детализация статуса.

FIXED (Решено) – стандартная резолюция, означающая, что задание выполнено или баг исправлен. После дефект переходит обратно в сферу ответственности тестировщика. Как правило, сопровождается резолюцией, например:

1.Исправлено (исправления включены в версию ХХХ).

2.Дубль (повторяет дефект, уже находящийся в работе).

3.Не исправлено (работает в соответствии со спецификацией, имеет слишком низкий приоритет, исправление отложено до следующей версии и т. п.).

4.Невоспроизводимо (запрос дополнительной информации об условиях, в которых дефект проявляется).

INVALID (Некорректно) – неправильная или некорректная постановка задачи.

WONTFIX (Проблема есть, но решаться не будет) – такая резолюция может быть вынесена в отношении request for enhancement (просьб об

32

усовершенствовании), которые хоть и имеют смысл, являются слишком трудновыполнимыми и не являются обязательными.

DUPLICATE (Дублирует) – описанная проблема уже зарегистрирована в другом баге.

WORKSFORME (А у меня работает…) – не удалось воспроизвести описанную проблему ни эмуляцией сценария, ни анализом кода.

MOVED (Перенесено) – проблема перенесена в иную систему-tracker.

REJECTED (Отказ) сопровождается комментарием программиста или менеджера о причине rejectʼa (отклонения): некачественное описание дефекта, дублирование эффекта, невозможность воспроизвести дефект. После этого тестер или закрывает дефект (Closed), или дополняет комментарии данного дефекта и переводит дефект заново в состояние

Назначен (Open).

PENDING RETEST (Ожидает повторного тестирования). На этом этапе баг-репорт ожидает повторного тестирования.

RETEST (Повторное тестирование). На этом этапе тестировщики проверяют изменения, внесенные разработчиками, и повторно тестируют их.

NOT A BUG (Это не дефект). Баг-репорт может иметь такой статус, например, если клиент попросил внести небольшие изменения в продукт: изменить цвет, шрифт и т. д.

VERIFIED (Проверен). Тестировщик проверяет, действительно ли ответственный разработчик исправил дефект. Если бага больше нет, он

получает данный статус.

Самые простые варианты жизненного цикла багов схематически представлены на рисунке 2.4, а и б.

Каждый дефект имеет ряд обязательных свойств, которые нужно внести в BTS при добавлении данного дефекта. Для этого необходимо написать отчет о дефекте (отчет об инциденте, баг-репорт).

33

Open

Разработчик

Assign to

Тестировщик

Разработчик

Open

Open

Closed

а)

Open

Разработчик

Тестировщик

Разработчик

Resolve

Reopen

Closed

б)

Рис. 2.4 – Жизненный цикл дефекта

· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·

Отчет о дефекте (баг-репорт, bug report) – это документ, описывающий ситуацию или последовательность действий, приведшую к некорректной работе объекта тестирования, с указанием причин и ожидаемого результата.

·· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·

Видеале описание дефекта должно иметь следующую структуру:

1. Уникальный номер (ID): присваивается автоматически в BTS.

34

2.Краткое название (Title, Summary или Short Description): короткий текст, который помогает сразу понять, что это за дефект.

3.Описание (Description или Summary): полное описание дефекта, включая шаги для воспроизведения.

4.Платформа (Platform): указывается, что используется для запуска программного обеспечения, в частности имя и версия операционной системы; в случае веб-приложения – имя и версия веб-браузера.

5.Шаги по воспроизведению (Steps to reproduce): шаги для воспроизведения дефекта разработчиком.

6.Ожидаемый результат (Expected Result). Что должно произойти, когда вы делаете какое-нибудь действие? Что вы ожидаете?

7.Фактический результат (Actual Result). Результат ошибки. Что случилось на самом деле?

8.Приложения (Attachments): некоторые дефекты сложно описать, поэтому для наглядности к описанию ошибки прилагаются скриншоты, видео или лог-файлы.

9.Серьезность (Severity) описывает влияние ошибки.

10.Приоритет (Priority). С помощью данного свойства определяется очередность исправления данного дефекта программистом.

11.Статус (Status) – состояние отчета об ошибке в любой системе отслеживания багов. Первоначальный статус отчета об ошибке – New. После этого статус может измениться на резолюции Fixed, Verified, Reopen,

Won’t Fix и т. д.

12.Комментарии (Comments) – комментарии к багу.

Часто шаги воспроизведения (Steps to Reproduce), фактический результат (Result) и ожидаемый результат (Expected Result) записывают в описание.

Если дефект описан согласно данной схеме, то он вызовет меньше всего вопросов, и разработчик, не теряя время на дополнительные разъяснения, приступит к его исправлению. Рассмотрим пример баг-репорта в системе Mantis.

· · · · · · · · · · · · · · · · · · · · · · · · · ·

Пример · · · · · · · · · · · · · · · · · · · · · · · · · ·

0000159

Отсутствует контент на странице сайта «Кинополис» на вкладке «Сеансы».

35

Описание

Отсутствие нужной информации на странице сайта https://kino-polis.ru/ приводит к блокировке множества функций сайта, а именно: невозможно выбрать сеанс, забронировать кресло в зале и произвести оплату, т. к. все эти функции недоступны из-за ошибки. Также на странице не прогружается рекламный видеоролик из-за ошибки: Error loading media: File could not be played!.

Шаги по воспроизведению

1.Открыть страницу сайта https://kino-polis.ru/.

2.Перейти на вкладку «Сеансы».

Дополнительные сведения

Фактический результат: отсутствие нужной информации на странице, не-

обходимой для выполнения дальнейших действий.

Ожидаемый результат: открытие страницы с сеансами, где можно посмотреть информацию о фильме, описание и продолжительность, характеристики зала; выбрать зал и места, произвести оплату выбранных мест.

Приоритет

Неотложный

Влияние

Блокирующее

Attachments (рис. 2.5).

Рис. 2.5 – Дефект на странице сайта «Кинополис» на вкладке «Сеансы»

· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·

36

На базе состояний дефектов в системе учета может быть построено множество отчетов, позволяющих оценивать эффективность как команды разработки, так и команды тестирования (рис. 2.6). Отчет представляет собой некий информационный срез о текущем состоянии базы зарегистрированных багов.

Рис. 2.6 – Статистика в BTS Mantis

Грамотно написанный баг-репорт увеличивает шансы, что ошибка будет исправлена. Придерживайтесь нескольких простых правил:

1.«Одна ошибка – один баг-репорт». Один баг в репорте может помочь избежать дублирования и путаницы.

2.Указывайте сначала глагол. Все глаголы ставьте в неопределенной форме: нажать, открыть, перейти.

3.Пишите без лишних слов, используйте простые конструкции. Давайте скриншотам говорящие заголовки, например «Сортировка.png».

4.Придерживайтесь принципа «Что-Где-Когда». Обязательно приводите ссылку, максимально подробную, на тот раздел, где баг. Но при этом не стоит полагаться только на ссылку, она может сломаться. Пишите и путь к нужному месту по шагам. Если у вас мобильное приложение, то приводите максимум скриншотов на шаги.

37

5.Если баг только для авторизованных пользователей, то обязательно указывайте данные для входа: логин и пароль.

6.Все скриншоты или упоминания о них приводите в нужных местах с названием (см. скрин Сортировка.png) или прямо встраивайте в баг-ра- порт с помощью !Сортировка.png! или #Сортировка.png (так будет сразу ссылка на баг).

7.Не забывайте указывать серьезность и приоритет дефекта.

8.Обезличенность. Когда сообщаете об ошибке, то сообщаете о дефекте программного обеспечения, а не о дефекте разработчика.

· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·

Контрольные вопросы по главе 2

· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·

1.Назовите виды дефектов и дайте им определения.

2.Какие ошибки чаще всего встречаются в ПО?

3.Чем отличается серьезность от приоритета?

4.После переключения языка сайта на английский текст баннеров на главной странице не переведен. Опишите дефект.

5.Что такое локализация дефекта?

6.Расскажите, как должен быть оформлен дефект и для чего нужна такая четкая последовательность.

7.Опишите жизненный цикл дефекта.

8.Перечислите известные вам системы учета дефектов.

9.Для чего нужен баг-репорт?

10.Что необходимо описать в баг-репорте?

Problem solving is the process of achieving a goal by overcoming obstacles, a frequent part of most activities. Problems in need of solutions range from simple personal tasks (e.g. how to turn on an appliance) to complex issues in business and technical fields. The former is an example of simple problem solving (SPS) addressing one issue, whereas the latter is complex problem solving (CPS) with multiple interrelated obstacles.[1] Another classification of problem-solving tasks is into well-defined problems with specific obstacles and goals, and ill-defined problems in which the current situation is troublesome but it is not clear what kind of resolution to aim for.[2] Similarly, one may distinguish formal or fact-based problems requiring psychometric intelligence, versus socio-emotional problems which depend on the changeable emotions of individuals or groups, such as tactful behavior, fashion, or gift choices.[3]

Solutions require sufficient resources and knowledge to attain the goal. Professionals such as lawyers, doctors, programmers, and consultants are largely problem solvers for issues that require technical skills and knowledge beyond general competence. Many businesses have found profitable markets by recognizing a problem and creating a solution: the more widespread and inconvenient the problem, the greater the opportunity to develop a scalable solution.

There are many specialized problem-solving techniques and methods in fields such as engineering, business, medicine, mathematics, computer science, philosophy, and social organization. The mental techniques to identify, analyze, and solve problems are studied in psychology and cognitive sciences. Also widely researched are the mental obstacles that prevent people from finding solutions; problem-solving impediments include confirmation bias, mental set, and functional fixedness.

Definition[edit]

The term problem solving has a slightly different meaning depending on the discipline. For instance, it is a mental process in psychology and a computerized process in computer science. There are two different types of problems: ill-defined and well-defined; different approaches are used for each. Well-defined problems have specific end goals and clearly expected solutions, while ill-defined problems do not. Well-defined problems allow for more initial planning than ill-defined problems.[2] Solving problems sometimes involves dealing with pragmatics (the way that context contributes to meaning) and semantics (the interpretation of the problem). The ability to understand what the end goal of the problem is, and what rules could be applied, represents the key to solving the problem. Sometimes a problem requires abstract thinking or coming up with a creative solution.

Problem solving has two major domains: mathematical problem solving and personal problem solving. Each concerns some difficulty or barrier that is encountered.[4]

Psychology[edit]

Problem solving in psychology refers to the process of finding solutions to problems encountered in life.[5] Solutions to these problems are usually situation- or context-specific. The process starts with problem finding and problem shaping, in which the problem is discovered and simplified. The next step is to generate possible solutions and evaluate them. Finally a solution is selected to be implemented and verified. Problems have an end goal to be reached; how you get there depends upon problem orientation (problem-solving coping style and skills) and systematic analysis.[6]

Mental health professionals study the human problem-solving processes using methods such as introspection, behaviorism, simulation, computer modeling, and experiment. Social psychologists look into the person-environment relationship aspect of the problem and independent and interdependent problem-solving methods.[7] Problem solving has been defined as a higher-order cognitive process and intellectual function that requires the modulation and control of more routine or fundamental skills.[8]

Empirical research shows many different strategies and factors influence everyday problem solving.[9] Rehabilitation psychologists studying people with frontal lobe injuries have found that deficits in emotional control and reasoning can be re-mediated with effective rehabilitation and could improve the capacity of injured persons to resolve everyday problems.[10] Interpersonal everyday problem solving is dependent upon personal motivational and contextual components. One such component is the emotional valence of «real-world» problems, which can either impede or aid problem-solving performance. Researchers have focused on the role of emotions in problem solving,[11] demonstrating that poor emotional control can disrupt focus on the target task, impede problem resolution, and lead to negative outcomes such as fatigue, depression, and inertia.[12] In conceptualization,[clarification needed]human problem solving consists of two related processes: problem orientation, and the motivational/attitudinal/affective approach to problematic situations and problem-solving skills. People’s strategies cohere with their goals[13] and stem from the process of comparing oneself with others.

Cognitive sciences[edit]

Among the first experimental psychologists to study problem solving were the Gestaltists in Germany, such as Karl Duncker in The Psychology of Productive Thinking (1935).[14] Perhaps best known is the work of Allen Newell and Herbert A. Simon.[15]

Experiments in the 1960s and early 1970s asked participants to solve relatively simple, well-defined, but not previously seen laboratory tasks.[16][17] These simple problems, such as the Tower of Hanoi, admitted optimal solutions that could be found quickly, allowing researchers to observe the full problem-solving process. Researchers assumed that these model problems would elicit the characteristic cognitive processes by which more complex «real world» problems are solved.

An outstanding problem-solving technique found by this research is the principle of decomposition.[18]

Computer science[edit]

[icon]

This section needs expansion. You can help by adding to it. (September 2018)

Much of computer science and artificial intelligence involves designing automated systems to solve a specified type of problem: to accept input data and calculate a correct or adequate response, reasonably quickly. Algorithms are recipes or instructions that direct such systems, written into computer programs.

Steps for designing such systems include problem determination, heuristics, root cause analysis, de-duplication, analysis, diagnosis, and repair. Analytic techniques include linear and nonlinear programming, queuing systems, and simulation.[19] A large, perennial obstacle is to find and fix errors in computer programs: debugging.

Logic[edit]

Formal logic concerns issues like validity, truth, inference, argumentation, and proof. In a problem-solving context, it can be used to formally represent a problem as a theorem to be proved, and to represent the knowledge needed to solve the problem as the premises to be used in a proof that the problem has a solution.

The use of computers to prove mathematical theorems using formal logic emerged as the field of automated theorem proving in the 1950s. It included the use of heuristic methods designed to simulate human problem solving, as in the Logic Theory Machine, developed by Allen Newell, Herbert A. Simon and J. C. Shaw, as well as algorithmic methods such as the resolution principle developed by John Alan Robinson.

In addition to its use for finding proofs of mathematical theorems, automated theorem-proving has also been used for program verification in computer science. In 1958, John McCarthy proposed the advice taker, to represent information in formal logic and to derive answers to questions using automated theorem-proving. An important step in this direction was made by Cordell Green in 1969, who used a resolution theorem prover for question-answering and for such other applications in artificial intelligence as robot planning.

The resolution theorem-prover used by Cordell Green bore little resemblance to human problem solving methods. In response to criticism of that approach from researchers at MIT, Robert Kowalski developed logic programming and SLD resolution,[20] which solves problems by problem decomposition. He has advocated logic for both computer and human problem solving[21] and computational logic to improve human thinking.[22]

Engineering[edit]

When products or processes fail, problem solving techniques can be used to develop corrective actions that can be taken to prevent further failures. Such techniques can also be applied to a product or process prior to an actual failure event—to predict, analyze, and mitigate a potential problem in advance. Techniques such as failure mode and effects analysis can proactively reduce the likelihood of problems.

In either the reactive or the proactive case, it is necessary to build a causal explanation through a process of diagnosis. In deriving an explanation of effects in terms of causes, abduction generates new ideas or hypotheses (asking «how?»); deduction evaluates and refines hypotheses based on other plausible premises (asking «why?»); and induction justifies a hypothesis with empirical data (asking «how much?»).[23] The objective of abduction is to determine which hypothesis or proposition to test, not which one to adopt or assert.[24] In the Peircean logical system, the logic of abduction and deduction contribute to our conceptual understanding of a phenomenon, while the logic of induction adds quantitative details (empirical substantiation) to our conceptual knowledge.[25]

Forensic engineering is an important technique of failure analysis that involves tracing product defects and flaws. Corrective action can then be taken to prevent further failures.

Reverse engineering attempts to discover the original problem-solving logic used in developing a product by disassembling the product and developing a plausible pathway to creating and assembling its parts.[26]

Military science[edit]

In military science, problem solving is linked to the concept of «end-states», the conditions or situations which are the aims of the strategy.[27]: xiii, E-2  Ability to solve problems is important at any military rank, but is essential at the command and control level. It results from deep qualitative and quantitative understanding of possible scenarios. Effectiveness in this context is an evaluation of results: to what extent the end states were accomplished.[27]: IV-24  Planning is the process of determining how to effect those end states.[27]: IV-1 

Processes[edit]

Some models of problem solving involve identifying a goal and then a sequence of subgoals towards achieving this goal. Andersson, who introduced the ACT-R model of cognition, modelled this collection of goals and subgoals as a goal stack in which the mind contains a stack of goals and subgoals to be completed, and a single task being carried out at any time.[28]: 51 

Knowledge of how to solve one problem can be applied to another problem, in a process known as transfer.[28]: 56 

Problem-solving strategies[edit]

Problem-solving strategies are steps to overcoming the obstacles to achieving a goal. The iteration of such strategies over the course of solving a problem is the «problem-solving cycle».[29]

Common steps in this cycle include recognizing the problem, defining it, developing a strategy to fix it, organizing knowledge and resources available, monitoring progress, and evaluating the effectiveness of the solution. Once a solution is achieved, another problem usually arises, and the cycle starts again.

Insight is the sudden aha! solution to a problem, the birth of a new idea to simplify a complex situation. Solutions found through insight are often more incisive than those from step-by-step analysis. A quick solution process requires insight to select productive moves at different stages of the problem-solving cycle. Unlike Newell and Simon’s formal definition of a move problem, there is no consensus definition of an insight problem.[30]

Some problem-solving strategies include:[31]

Abstraction
solving the problem in a tractable model system to gain insight into the real system
Analogy
adapting the solution to a previous problem which has similar features or mechanisms
Brainstorming
(especially among groups of people) suggesting a large number of solutions or ideas and combining and developing them until an optimum solution is found
Critical thinking
analysis of available evidence and arguments to form a judgement via rational, skeptical, and unbiased evaluation
Divide and conquer
breaking down a large, complex problem into smaller, solvable problems
Help-seeking
obtaining external assistance to deal with obstacles
Hypothesis testing
assuming a possible explanation to the problem and trying to prove (or, in some contexts, disprove) the assumption
Lateral thinking
approaching solutions indirectly and creatively
Means-ends analysis
choosing an action at each step to move closer to the goal
Morphological analysis
assessing the output and interactions of an entire system
Proof of impossibility
try to prove that the problem cannot be solved. The point where the proof fails will be the starting point for solving it
Reduction
transforming the problem into another problem for which solutions exist
Research
employing existing ideas or adapting existing solutions to similar problems
Root cause analysis
identifying the cause of a problem
Trial-and-error
testing possible solutions until the right one is found

Problem-solving methods[edit]

  • A3 problem solving – Structured problem improvement approach
  • Design thinking – Processes by which design concepts are developed
  • Eight Disciplines Problem Solving – Eight Disciplines of Team-Oriented Problem Solving Method
  • GROW model – Method for goal setting and problem solving
  • Help-seeking – seeking help
  • How to Solve It – Book by George Pólya
  • Lateral thinking – Manner of solving problems
  • OODA loop – Observe–orient–decide–act cycle
  • PDCA – Iterative design and management method used in business
  • Root cause analysis – Method of identifying the fundamental causes of faults or problems
  • RPR problem diagnosis – problem diagnosis method designed to determine the root cause of IT problems
  • TRIZ – Problem-solving tools
  • Swarm intelligence – Collective behavior of decentralized, self-organized systems
  • System dynamics – Study of non-linear complex systems

Common barriers[edit]

Common barriers to problem solving include mental constructs that impede an efficient search for solutions. Five of the most common identified by researchers are: confirmation bias, mental set, functional fixedness, unnecessary constraints, and irrelevant information.

Confirmation bias[edit]

Confirmation bias is an unintentional tendency to collect and use data which favors preconceived notions. Such notions may be incidental rather than motivated by important personal beliefs: the desire to be right may be sufficient motivation.[32]

Scientific and technical professionals also experience confirmation bias. One online experiment, for example, suggested that professionals within the field of psychological research are likely to view scientific studies that agree with their preconceived notions more favorably than clashing studies.[33] According to Raymond Nickerson, one can see the consequences of confirmation bias in real-life situations, which range in severity from inefficient government policies to genocide. Nickerson argued that those who killed people accused of witchcraft demonstrated confirmation bias with motivation.[citation needed] Researcher Michael Allen found evidence for confirmation bias with motivation in school children who worked to manipulate their science experiments to produce favorable results.[34]

However, confirmation bias does not necessarily require motivation. In 1960, Peter Cathcart Wason conducted an experiment in which participants first viewed three numbers and then created a hypothesis in the form of a rule that could have been used to create that triplet of numbers. When testing their hypotheses, participants tended to only create additional triplets of numbers that would confirm their hypotheses, and tended not to create triplets that would negate or disprove their hypotheses.[35]

Mental set[edit]

Mental set is the inclination to re-use a previously successful solution, rather than search for new and better solutions. It is a reliance on habit.

It was first articulated by Abraham S. Luchins in the 1940s with his well-known water jug experiments.[36] Participants were asked to fill one jug with a specific amount of water by using other jugs with different maximum capacities. After Luchins gave a set of jug problems that could all be solved by a single technique, he then introduced a problem that could be solved by the same technique, but also by a novel and simpler method. His participants tended to use the accustomed technique, oblivious of the simpler alternative.[37] This was again demonstrated in Norman Maier’s 1931 experiment, which challenged participants to solve a problem by using a familiar tool (pliers) in an unconventional manner. Participants were often unable to view the object in a way that strayed from its typical use, a type of mental set known as functional fixedness (see the following section).

Rigidly clinging to a mental set is called fixation, which can deepen to an obsession or preoccupation with attempted strategies that are repeatedly unsuccessful.[38] In the late 1990s, researcher Jennifer Wiley found that professional expertise in a field can create a mental set, perhaps leading to fixation.[38]

Groupthink, in which each individual takes on the mindset of the rest of the group, can produce and exacerbate mental set.[39] Social pressure leads to everybody thinking the same thing and reaching the same conclusions.

Functional fixedness[edit]

Functional fixedness is the tendency to view an object as having only one function, and to be unable to conceive of any novel use, as in the Maier pliers experiment described above. Functional fixedness is a specific form of mental set, and is one of the most common forms of cognitive bias in daily life.

As an example, imagine a man wants to kill a bug in his house, but the only thing at hand is a can of air freshener. He may start searching for something to kill the bug instead of squashing it with the can, thinking only of its main function of deodorizing.

Tim German and Clark Barrett describe this barrier: «subjects become ‘fixed’ on the design function of the objects, and problem solving suffers relative to control conditions in which the object’s function is not demonstrated.»[40] Their research found that young children’s limited knowledge of an object’s intended function reduces this barrier[41] Research has also discovered functional fixedness in educational contexts, as an obstacle to understanding: «functional fixedness may be found in learning concepts as well as in solving chemistry problems.»[42]

There are several hypotheses in regards to how functional fixedness relates to problem solving.[43] It may waste time, delaying or entirely preventing the correct use of a tool.

Unnecessary constraints[edit]

Unnecessary constraints are arbitrary boundaries imposed unconsciously on the task at hand, which foreclose a productive avenue of solution. The solver may become fixated on only one type of solution, as if it were an inevitable requirement of the problem. Typically, this combines with mental set—clinging to a previously successful method.[44][page needed]

Visual problems can also produce mentally invented constraints.[45][page needed] A famous example is the dot problem: nine dots arranged in a three-by-three grid pattern must be connected by drawing four straight line segments, without lifting pen from paper or backtracking along a line. The subject typically assumes the pen must stay within the outer square of dots, but the solution requires lines continuing beyond this frame, and researchers have found a 0% solution rate within a brief allotted time.[46]

This problem has produced the expression «think outside the box».[47][page needed] Such problems are typically solved via a sudden insight which leaps over the mental barriers, often after long toil against them.[48] This can be difficult depending on how the subject has structured the problem in their mind, how they draw on past experiences, and how well they juggle this information in their working memory. In the example, envisioning the dots connected outside the framing square requires visualizing an unconventional arrangement, which is a strain on working memory.[47]

Irrelevant information[edit]

Irrelevant information is a specification or data presented in a problem that is unrelated to the solution.[44] If the solver assumes that all information presented needs to be used, this often derails the problem solving process, making relatively simple problems much harder.[49]

For example: «Fifteen percent of the people in Topeka have unlisted telephone numbers. You select 200 names at random from the Topeka phone book. How many of these people have unlisted phone numbers?»[47][page needed] The «obvious» answer is 15%, but in fact none of the unlisted people would be listed among the 200. This kind of «trick question» is often used in aptitude tests or cognitive evaluations.[50] Though not inherently difficult, they require independent thinking that is not necessarily common. Mathematical word problems often include irrelevant qualitative or numerical information as an extra challenge.

Avoiding barriers by changing problem representation[edit]

The disruption caused by the above cognitive biases can depend on how the information is represented:[50] visually, verbally, or mathematically. A classic example is the Buddhist monk problem:

A Buddhist monk begins at dawn one day walking up a mountain, reaches the top at sunset, meditates at the top for several days until one dawn when he begins to walk back to the foot of the mountain, which he reaches at sunset. Making no assumptions about his starting or stopping or about his pace during the trips, prove that there is a place on the path which he occupies at the same hour of the day on the two separate journeys.

The problem cannot be addressed in a verbal context, trying to describe the monk’s progress on each day. It becomes much easier when the paragraph is represented mathematically by a function: one visualizes a graph whose horizontal axis is time of day, and whose vertical axis shows the monk’s position (or altitude) on the path at each time. Superimposing the two journey curves, which traverse opposite diagonals of a rectangle, one sees they must cross each other somewhere. The visual representation by graphing has resolved the difficulty.

Similar strategies can often improve problem solving on tests.[44][51]

Other barriers for individuals[edit]

People who are engaged in problem solving tend to overlook subtractive changes, even those that are critical elements of efficient solutions.[example needed] This tendency to solve by first, only, or mostly creating or adding elements, rather than by subtracting elements or processes is shown to intensify with higher cognitive loads such as information overload.[52]

Dreaming: problem solving without waking consciousness[edit]

People can also solve problems while they are asleep. There are many reports of scientists and engineers who solved problems in their dreams. For example, Elias Howe, inventor of the sewing machine, figured out the structure of the bobbin from a dream.[53]

The chemist August Kekulé was considering how benzene arranged its six carbon and hydrogen atoms. Thinking about the problem, he dozed off, and dreamt of dancing atoms that fell into a snakelike pattern, which led him to discover the benzene ring. As Kekulé wrote in his diary,

One of the snakes seized hold of its own tail, and the form whirled mockingly before my eyes. As if by a flash of lightning I awoke; and this time also I spent the rest of the night in working out the consequences of the hypothesis.[54]

There also are empirical studies of how people can think consciously about a problem before going to sleep, and then solve the problem with a dream image. Dream researcher William C. Dement told his undergraduate class of 500 students that he wanted them to think about an infinite series, whose first elements were OTTFF, to see if they could deduce the principle behind it and to say what the next elements of the series would be.[55][page needed] He asked them to think about this problem every night for 15 minutes before going to sleep and to write down any dreams that they then had. They were instructed to think about the problem again for 15 minutes when they awakened in the morning.

The sequence OTTFF is the first letters of the numbers: one, two, three, four, five. The next five elements of the series are SSENT (six, seven, eight, nine, ten). Some of the students solved the puzzle by reflecting on their dreams. One example was a student who reported the following dream:[55][page needed]

I was standing in an art gallery, looking at the paintings on the wall. As I walked down the hall, I began to count the paintings: one, two, three, four, five. As I came to the sixth and seventh, the paintings had been ripped from their frames. I stared at the empty frames with a peculiar feeling that some mystery was about to be solved. Suddenly I realized that the sixth and seventh spaces were the solution to the problem!

With more than 500 undergraduate students, 87 dreams were judged to be related to the problems students were assigned (53 directly related and 34 indirectly related). Yet of the people who had dreams that apparently solved the problem, only seven were actually able to consciously know the solution. The rest (46 out of 53) thought they did not know the solution.

Mark Blechner conducted this experiment and obtained results similar to Dement’s.[56][page needed] He found that while trying to solve the problem, people had dreams in which the solution appeared to be obvious from the dream, but it was rare for the dreamers to realize how their dreams had solved the puzzle. Coaxing or hints did not get them to realize it, although once they heard the solution, they recognized how their dream had solved it. For example, one person in that OTTFF experiment dreamed:[56][page needed]

There is a big clock. You can see the movement. The big hand of the clock was on the number six. You could see it move up, number by number, six, seven, eight, nine, ten, eleven, twelve. The dream focused on the small parts of the machinery. You could see the gears inside.

In the dream, the person counted out the next elements of the series—six, seven, eight, nine, ten, eleven, twelve—yet he did not realize that this was the solution of the problem. His sleeping mindbrain[jargon] solved the problem, but his waking mindbrain was not aware how.

Albert Einstein believed that much problem solving goes on unconsciously, and the person must then figure out and formulate consciously what the mindbrain[jargon] has already solved. He believed this was his process in formulating the theory of relativity: «The creator of the problem possesses the solution.»[57] Einstein said that he did his problem solving without words, mostly in images. «The words or the language, as they are written or spoken, do not seem to play any role in my mechanism of thought. The psychical entities which seem to serve as elements in thought are certain signs and more or less clear images which can be ‘voluntarily’ reproduced and combined.»[58]

Cognitive sciences: two schools[edit]


Problem-solving processes differ across knowledge domains and across levels of expertise.[59] For this reason, cognitive sciences findings obtained in the laboratory cannot necessarily generalize to problem-solving situations outside the laboratory. This has led to a research emphasis on real-world problem solving, since the 1990s. This emphasis has been expressed quite differently in North America and Europe, however. Whereas North American research has typically concentrated on studying problem solving in separate, natural knowledge domains, much of the European research has focused on novel, complex problems, and has been performed with computerized scenarios.[60]

Europe[edit]

In Europe, two main approaches have surfaced, one initiated by Donald Broadbent[61] in the United Kingdom and the other one by Dietrich Dörner[62] in Germany. The two approaches share an emphasis on relatively complex, semantically rich, computerized laboratory tasks, constructed to resemble real-life problems. The approaches differ somewhat in their theoretical goals and methodology. The tradition initiated by Broadbent emphasizes the distinction between cognitive problem-solving processes that operate under awareness versus outside of awareness, and typically employs mathematically well-defined computerized systems. The tradition initiated by Dörner, on the other hand, has an interest in the interplay of the cognitive, motivational, and social components of problem solving, and utilizes very complex computerized scenarios that contain up to 2,000 highly interconnected variables.[63]

North America[edit]

In North America, initiated by the work of Herbert A. Simon on «learning by doing» in semantically rich domains,[64] researchers began to investigate problem solving separately in different natural knowledge domains—such as physics, writing, or chess playing—rather than attempt to extract a global theory of problem solving.[65] These researchers have focused on the development of problem solving within certain domains, that is on the development of expertise.[66]

Areas that have attracted rather intensive attention in North America include:

  • calculation[67]
  • computer skills[68]
  • game playing[69]
  • lawyers’ reasoning[70]
  • managerial problem solving[71]
  • mathematical problem solving[72]
  • mechanical problem solving[73]
  • personal problem solving[74]
  • political decision making[75]
  • problem solving in electronics[76]
  • problem solving for innovations and inventions: TRIZ[77]
  • reading[78]
  • social problem solving[11]
  • writing[79]

Characteristics of complex problems[edit]

Complex problem solving (CPS) is distinguishable from simple problem solving (SPS). In SPS there is a singular and simple obstacle. In CPS there may be multiple simultaneous obstacles. For example, a surgeon at work has far more complex problems than an individual deciding what shoes to wear. As elucidated by Dietrich Dörner, and later expanded upon by Joachim Funke, complex problems have some typical characteristics, which include:[1]

  • complexity (large numbers of items, interrelations, and decisions)
  • enumerability[clarification needed]
  • heterogeneity[specify]
  • connectivity (hierarchy relation, communication relation, allocation relation)[clarification needed]
  • dynamics (time considerations)[clarification needed]
    • temporal constraints
    • temporal sensitivity[clarification needed]
    • phase effects[definition needed]
    • dynamic unpredictability[specify]
  • intransparency (lack of clarity of the situation)
    • commencement opacity[definition needed]
    • continuation opacity[definition needed]
  • polytely (multiple goals)[80]
    • inexpressivenes[specify]
    • opposition[specify]
    • transience[specify]

Collective problem solving[edit]

People solve problems on many different levels—from the individual to the civilizational. Collective problem solving refers to problem solving performed collectively. Social issues and global issues can typically only be solved collectively.

The complexity of contemporary problems exceeds the cognitive capacity of any individual and requires different but complementary varieties of expertise and collective problem solving ability.[81]

Collective intelligence is shared or group intelligence that emerges from the collaboration, collective efforts, and competition of many individuals.

In collaborative problem solving people work together to solve real-world problems. Members of problem-solving groups share a common concern, a similar passion, and/or a commitment to their work. Members can ask questions, wonder, and try to understand common issues. They share expertise, experiences, tools, and methods.[82] Groups may be fluid based on need, may only occur temporarily to finish an assigned task, or may be more permanent depending on the nature of the problems.

For example, in the educational context, members of a group may all have input into the decision-making process and a role in the learning process. Members may be responsible for the thinking, teaching, and monitoring of all members in the group. Group work may be coordinated among members so that each member makes an equal contribution to the whole work. Members can identify and build on their individual strengths so that everyone can make a significant contribution to the task.[83] Collaborative group work has the ability to promote critical thinking skills, problem solving skills, social skills, and self-esteem. By using collaboration and communication, members often learn from one another and construct meaningful knowledge that often leads to better learning outcomes than individual work.[84]

Collaborative groups require joint intellectual efforts between the members and involve social interactions to solve problems together. The knowledge shared during these interactions is acquired during communication, negotiation, and production of materials.[85] Members actively seek information from others by asking questions. The capacity to use questions to acquire new information increases understanding and the ability to solve problems.[86]

In a 1962 research report, Douglas Engelbart linked collective intelligence to organizational effectiveness, and predicted that proactively «augmenting human intellect» would yield a multiplier effect in group problem solving: «Three people working together in this augmented mode [would] seem to be more than three times as effective in solving a complex problem as is one augmented person working alone».[87]

Henry Jenkins, a theorist of new media and media convergence, draws on the theory that collective intelligence can be attributed to media convergence and participatory culture.[88] He criticizes contemporary education for failing to incorporate online trends of collective problem solving into the classroom, stating «whereas a collective intelligence community encourages ownership of work as a group, schools grade individuals». Jenkins argues that interaction within a knowledge community builds vital skills for young people, and teamwork through collective intelligence communities contributes to the development of such skills.[89]

Collective impact is the commitment of a group of actors from different sectors to a common agenda for solving a specific social problem, using a structured form of collaboration.

After World War II the UN, the Bretton Woods organization, and the WTO were created. Collective problem solving on the international level crystallized around these three types of organization from the 1980s onward. As these global institutions remain state-like or state-centric it is unsurprising that they perpetuate state-like or state-centric approaches to collective problem solving rather than alternative ones.[90]

Crowdsourcing is a process of accumulating ideas, thoughts, or information from many independent participants, with aim of finding the best solution for a given challenge. Modern information technologies allow for many people to be involved and facilitate managing their suggestions in ways that provide good results.[91] The Internet allows for a new capacity of collective (including planetary-scale) problem solving.[92]

See also[edit]

  • Actuarial science – Statistics applied to risk in insurance and other financial products
  • Analytical skill – Crucial skill in all different fields of work and life
  • Creative problem-solving – mental process of searching for an original and previously unknown solution to a problem
  • Collective intelligence – Group intelligence that emerges from collective efforts
  • Community of practice
  • Coworking – Practice of independent contractors or scientists sharing office space without supervision
  • Crowdsolving – Sourcing services or funds from a group
  • Divergent thinking – A method of generating creative ideas
  • Grey problem – IT service problem where the causing technology is unknown or unconfirmed, making the problem solving difficult to allocate
  • Innovation – Practical implementation of improvements
  • Instrumentalism – Position in the philosophy of science
  • Problem statement – Description of an issue
  • Problem structuring methods
  • Structural fix – solving a problem or resolving a conflict by bringing about structural changes in underlying structures that provoked or sustained these problems
  • Subgoal labeling
  • Troubleshooting – Form of problem solving, often applied to repair failed products or processes
  • Wicked problem – Problem that is difficult or impossible to solve

Notes[edit]

  1. ^ a b Frensch, Peter A.; Funke, Joachim, eds. (2014-04-04). Complex Problem Solving. doi:10.4324/9781315806723. ISBN 9781315806723.
  2. ^ a b Schacter, D.L.; Gilbert, D.T.; Wegner, D.M. (2011). Psychology (2nd ed.). New York: Worth Publishers. p. 376.
  3. ^ Blanchard-Fields, F. (2007). «Everyday problem solving and emotion: An adult developmental perspective». Current Directions in Psychological Science. 16 (1): 26–31. doi:10.1111/j.1467-8721.2007.00469.x. S2CID 145645352.
  4. ^ Zimmermann, Bernd (2004). On mathematical problem-solving processes and history of mathematics. ICME 10. Copenhagen.
  5. ^ Granvold, Donald K. (1997). «Cognitive-Behavioral Therapy with Adults». In Brandell, Jerrold R. (ed.). Theory and Practice in Clinical Social Work. Simon and Schuster. pp. 189. ISBN 978-0-684-82765-0.
  6. ^ Robertson, S. Ian (2001). «Introduction to the study of problem solving». Problem Solving. Psychology Press. ISBN 0415203007.
  7. ^ Rubin, M.; Watt, S. E.; Ramelli, M. (2012). «Immigrants’ social integration as a function of approach-avoidance orientation and problem-solving style». International Journal of Intercultural Relations. 36 (4): 498–505. doi:10.1016/j.ijintrel.2011.12.009. hdl:1959.13/931119.
  8. ^ Goldstein F. C.; Levin H. S. (1987). «Disorders of reasoning and problem-solving ability». In M. Meier; A. Benton; L. Diller (eds.). Neuropsychological rehabilitation. London: Taylor & Francis Group.
  9. ^
    • Vallacher, Robin; M. Wegner, Daniel (2012). «Action Identification Theory». Handbook of Theories of Social Psychology. pp. 327–348. doi:10.4135/9781446249215.n17. ISBN 9780857029607.
    • Margrett, J. A; Marsiske, M (2002). «Gender differences in older adults’ everyday cognitive collaboration». International Journal of Behavioral Development. 26 (1): 45–59. doi:10.1080/01650250143000319. PMC 2909137. PMID 20657668.
    • Antonucci, T. C; Ajrouch, K. J; Birditt, K. S (2013). «The Convoy Model: Explaining Social Relations From a Multidisciplinary Perspective». The Gerontologist. 54 (1): 82–92. doi:10.1093/geront/gnt118. PMC 3894851. PMID 24142914.

  10. ^ Rath, Joseph F.; Simon, Dvorah; Langenbahn, Donna M.; Sherr, Rose Lynn; Diller, Leonard (2003). «Group treatment of problem‐solving deficits in outpatients with traumatic brain injury: A randomised outcome study». Neuropsychological Rehabilitation. 13 (4): 461–488. doi:10.1080/09602010343000039. S2CID 143165070.
  11. ^ a b
    • D’Zurilla, T. J.; Goldfried, M. R. (1971). «Problem solving and behavior modification». Journal of Abnormal Psychology. 78 (1): 107–126. doi:10.1037/h0031360. PMID 4938262.
    • D’Zurilla, T. J.; Nezu, A. M. (1982). «Social problem solving in adults». In P. C. Kendall (ed.). Advances in cognitive-behavioral research and therapy. Vol. 1. New York: Academic Press. pp. 201–274.

  12. ^ RATH, J (2004). «The construct of problem solving in higher level neuropsychological assessment and rehabilitation*1». Archives of Clinical Neuropsychology. 19 (5): 613–635. doi:10.1016/j.acn.2003.08.006. PMID 15271407.
  13. ^ Hoppmann, Christiane A.; Blanchard-Fields, Fredda (2010). «Goals and everyday problem solving: Manipulating goal preferences in young and older adults». Developmental Psychology. 46 (6): 1433–1443. doi:10.1037/a0020676. PMID 20873926.
  14. ^ Duncker, Karl (1935). Zur Psychologie des produktiven Denkens [The psychology of productive thinking] (in German). Berlin: Julius Springer.
  15. ^ Newell, Allen; Simon, Herbert A. (1972). Human problem solving. Englewood Cliffs, N.J.: Prentice-Hall.
  16. ^ For example:
    • X-ray problem, by Duncker, Karl (1935). Zur Psychologie des produktiven Denkens [The psychology of productive thinking] (in German). Berlin: Julius Springer.
    • Disk problem, later known as Tower of Hanoi, by Ewert, P. H.; Lambert, J. F. (1932). «Part II: The Effect of Verbal Instructions upon the Formation of a Concept». The Journal of General Psychology. Informa UK Limited. 6 (2): 400–413. doi:10.1080/00221309.1932.9711880. ISSN 0022-1309.

  17. ^ Mayer, R. E. (1992). Thinking, problem solving, cognition (Second ed.). New York: W. H. Freeman and Company.
  18. ^ Armstrong, J. Scott; Denniston, William B., Jr.; Gordon, Matt M. (1975). «The Use of the Decomposition Principle in Making Judgments» (PDF). Organizational Behavior and Human Performance. 14 (2): 257–263. doi:10.1016/0030-5073(75)90028-8. S2CID 122659209. Archived from the original (PDF) on 2010-06-20.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  19. ^ Malakooti, Behnam (2013). Operations and Production Systems with Multiple Objectives. John Wiley & Sons. ISBN 978-1-118-58537-5.
  20. ^ Kowalski, Robert (1974). «Predicate Logic as a Programming Language» (PDF). Information Processing. 74.
  21. ^ Kowalski, Robert (1979). Logic for Problem Solving (PDF). Artificial Intelligence Series. Vol. 7. Elsevier Science Publishing. ISBN 0444003681.
  22. ^ Kowalski, Robert (2011). Computational Logic and Human Thinking: How to be Artificially Intelligent (PDF). Cambridge University Press.
  23. ^ Staat, Wim (1993). «On abduction, deduction, induction and the categories». Transactions of the Charles S. Peirce Society. 29 (2): 225–237.
  24. ^ Sullivan, Patrick F. (1991). «On Falsificationist Interpretations of Peirce». Transactions of the Charles S. Peirce Society. 27 (2): 197–219.
  25. ^ Ho, Yu Chong (1994). Abduction? Deduction? Induction? Is There a Logic of Exploratory Data Analysis? (PDF). Annual Meeting of the American Educational Research Association. New Orleans, La.
  26. ^ «Einstein’s Secret to Amazing Problem Solving (and 10 Specific Ways You Can Use It)». Litemind. 2008-11-04. Archived from the original on 2017-06-21. Retrieved 2017-06-11.
  27. ^ a b c «Commander’s Handbook for Strategic Communication and Communication Strategy» (PDF). United States Joint Forces Command, Joint Warfighting Center, Suffolk, Va. 27 October 2009. Archived from the original (PDF) on April 29, 2011. Retrieved 10 October 2016.
  28. ^ a b Robertson, S. Ian (2017). Problem solving: perspectives from cognition and neuroscience (2nd ed.). London: Taylor & Francis. ISBN 978-1-317-49601-4. OCLC 962750529.
  29. ^ Bransford, J. D.; Stein, B. S (1993). The ideal problem solver: A guide for improving thinking, learning, and creativity (2nd ed.). New York: W.H. Freeman.
  30. ^
    • Ash, Ivan K.; Jee, Benjamin D.; Wiley, Jennifer (2012). «Investigating Insight as Sudden Learning». The Journal of Problem Solving. 4 (2). doi:10.7771/1932-6246.1123. ISSN 1932-6246.
    • Chronicle, Edward P.; MacGregor, James N.; Ormerod, Thomas C. (2004). «What Makes an Insight Problem? The Roles of Heuristics, Goal Conception, and Solution Recoding in Knowledge-Lean Problems». Journal of Experimental Psychology: Learning, Memory, and Cognition. 30 (1): 14–27. doi:10.1037/0278-7393.30.1.14. ISSN 1939-1285. PMID 14736293. S2CID 15631498.
    • Chu, Yun; MacGregor, James N. (2011). «Human Performance on Insight Problem Solving: A Review». The Journal of Problem Solving. 3 (2). doi:10.7771/1932-6246.1094. ISSN 1932-6246.

  31. ^ Wang, Y.; Chiew, V. (2010). «On the cognitive process of human problem solving» (PDF). Cognitive Systems Research. Elsevier BV. 11 (1): 81–92. doi:10.1016/j.cogsys.2008.08.003. ISSN 1389-0417. S2CID 16238486.
  32. ^ Nickerson, Raymond S. (1998). «Confirmation bias: A ubiquitous phenomenon in many guises». Review of General Psychology. 2 (2): 176. doi:10.1037/1089-2680.2.2.175. S2CID 8508954.
  33. ^ Hergovich, Andreas; Schott, Reinhard; Burger, Christoph (2010). «Biased Evaluation of Abstracts Depending on Topic and Conclusion: Further Evidence of a Confirmation Bias Within Scientific Psychology». Current Psychology. Springer Science and Business Media LLC. 29 (3): 188–209. doi:10.1007/s12144-010-9087-5. ISSN 1046-1310. S2CID 145497196.
  34. ^ Allen, Michael (2011). «Theory‐led confirmation bias and experimental persona». Research in Science & Technological Education. Informa UK Limited. 29 (1): 107–127. Bibcode:2011RSTEd..29..107A. doi:10.1080/02635143.2010.539973. ISSN 0263-5143. S2CID 145706148.
  35. ^ Wason, P. C. (1960). «On the failure to eliminate hypotheses in a conceptual task». Quarterly Journal of Experimental Psychology. 12 (3): 129–140. doi:10.1080/17470216008416717. S2CID 19237642.
  36. ^ Luchins, Abraham S. (1942). «Mechanization in problem solving: The effect of Einstellung». Psychological Monographs. 54 (248): i-95. doi:10.1037/h0093502.
  37. ^ Öllinger, Michael; Jones, Gary; Knoblich, Günther (2008). «Investigating the Effect of Mental Set on Insight Problem Solving» (PDF). Experimental Psychology. Hogrefe Publishing Group. 55 (4): 269–282. doi:10.1027/1618-3169.55.4.269. ISSN 1618-3169. PMID 18683624.
  38. ^ a b Wiley, Jennifer (1998). «Expertise as mental set: The effects of domain knowledge in creative problem solving». Memory & Cognition. 24 (4): 716–730. doi:10.3758/bf03211392. PMID 9701964.
  39. ^ Cottam, Martha L.; Dietz-Uhler, Beth; Mastors, Elena; Preston, Thomas (2010). Introduction to Political Psychology (2nd ed.). New York: Psychology Press.
  40. ^ German, Tim P.; Barrett, H. Clark (2005). «Functional Fixedness in a Technologically Sparse Culture». Psychological Science. SAGE Publications. 16 (1): 1–5. doi:10.1111/j.0956-7976.2005.00771.x. ISSN 0956-7976. PMID 15660843. S2CID 1833823.
  41. ^ German, Tim P.; Defeyter, Margaret A. (2000). «Immunity to functional fixedness in young children». Psychonomic Bulletin and Review. 7 (4): 707–712. doi:10.3758/BF03213010. PMID 11206213.
  42. ^ Furio, C.; Calatayud, M. L.; Baracenas, S.; Padilla, O. (2000). «Functional fixedness and functional reduction as common sense reasonings in chemical equilibrium and in geometry and polarity of molecules». Science Education. 84 (5): 545–565. doi:10.1002/1098-237X(200009)84:5<545::AID-SCE1>3.0.CO;2-1.
  43. ^ Adamson, Robert E (1952). «Functional fixedness as related to problem solving: A repetition of three experiments». Journal of Experimental Psychology. 44 (4): 288–291. doi:10.1037/h0062487. PMID 13000071.
  44. ^ a b c Kellogg, R. T. (2003). Cognitive psychology (2nd ed.). California: Sage Publications, Inc.
  45. ^ Meloy, J. R. (1998). The Psychology of Stalking, Clinical and Forensic Perspectives (2nd ed.). London, England: Academic Press.
  46. ^ MacGregor, J.N.; Ormerod, T.C.; Chronicle, E.P. (2001). «Information-processing and insight: A process model of performance on the nine-dot and related problems». Journal of Experimental Psychology: Learning, Memory, and Cognition. 27 (1): 176–201. doi:10.1037/0278-7393.27.1.176. PMID 11204097.
  47. ^ a b c Weiten, Wayne (2011). Psychology: themes and variations (8th ed.). California: Wadsworth.
  48. ^ Novick, L. R.; Bassok, M. (2005). «Problem solving». In Holyoak, K. J.; Morrison, R. G. (eds.). Cambridge handbook of thinking and reasoning. New York, N.Y.: Cambridge University Press. pp. 321–349.
  49. ^ Walinga, Jennifer (2010). «From walls to windows: Using barriers as pathways to insightful solutions». The Journal of Creative Behavior. 44 (3): 143–167. doi:10.1002/j.2162-6057.2010.tb01331.x.
  50. ^ a b Walinga, Jennifer; Cunningham, J. Barton; MacGregor, James N. (2011). «Training insight problem solving through focus on barriers and assumptions». The Journal of Creative Behavior. 45: 47–58. doi:10.1002/j.2162-6057.2011.tb01084.x.
  51. ^ Vlamings, Petra H. J. M.; Hare, Brian; Call, Joseph (2009). «Reaching around barriers: The performance of great apes and 3–5-year-old children». Animal Cognition. 13 (2): 273–285. doi:10.1007/s10071-009-0265-5. PMC 2822225. PMID 19653018.
  52. ^
    • Gupta, Sujata (7 April 2021). «People add by default even when subtraction makes more sense». Science News. Retrieved 10 May 2021.
    • Adams, Gabrielle S.; Converse, Benjamin A.; Hales, Andrew H.; Klotz, Leidy E. (April 2021). «People systematically overlook subtractive changes». Nature. 592 (7853): 258–261. Bibcode:2021Natur.592..258A. doi:10.1038/s41586-021-03380-y. ISSN 1476-4687. PMID 33828317. S2CID 233185662. Retrieved 10 May 2021.

  53. ^ Kaempffert, Waldemar B. (1924). A Popular History of American Invention. Vol. 2. New York: Charles Scribner’s Sons. p. 385.
  54. ^
    • Kekulé, August (1890). «Benzolfest-Rede». Berichte der Deutschen Chemischen Gesellschaft. 23: 1302–1311.
    • Benfey, O. (1958). «Kekulé and the birth of the structural theory of organic chemistry in 1858». Journal of Chemical Education. 35 (1): 21–23. Bibcode:1958JChEd..35…21B. doi:10.1021/ed035p21.

  55. ^ a b Dement, W.C. (1972). Some Must Watch While Some Just Sleep. New York: Freeman.
  56. ^ a b Blechner, Mark J. (2018). The Mindbrain and Dreams: An Exploration of Dreaming, Thinking, and Artistic Creation. New York: Routledge.
  57. ^ Fromm, Erika O. (1998). «Lost and found half a century later: Letters by Freud and Einstein». American Psychologist. 53 (11): 1195–1198. doi:10.1037/0003-066x.53.11.1195.
  58. ^ Einstein, Albert (1954). «A Mathematician’s Mind». Ideas and Opinions. New York: Bonanza Books. p. 25.
  59. ^ Sternberg, R. J. (1995). «Conceptions of expertise in complex problem solving: A comparison of alternative conceptions». In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 295–321.
  60. ^ Funke, J. (1991). «Solving complex problems: Human identification and control of complex systems». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 185–222. ISBN 0-8058-0650-4. OCLC 23254443.
  61. ^
    • Broadbent, Donald E. (1977). «Levels, hierarchies, and the locus of control». Quarterly Journal of Experimental Psychology. 29 (2): 181–201. doi:10.1080/14640747708400596. S2CID 144328372.
    • Berry, Dianne C.; Broadbent, Donald E. (1995). «Implicit learning in the control of complex systems: A reconsideration of some of the earlier claims». In Frensch, P.A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 131–150.

  62. ^
    • Dörner, Dietrich (1975). «Wie Menschen eine Welt verbessern wollten» [How people wanted to improve the world]. Bild der Wissenschaft (in German). 12: 48–53.
    • Dörner, Dietrich (1985). «Verhalten, Denken und Emotionen» [Behavior, thinking, and emotions]. In Eckensberger, L. H.; Lantermann, E. D. (eds.). Emotion und Reflexivität (in German). München, Germany: Urban & Schwarzenberg. pp. 157–181.
    • Dörner, Dietrich; Wearing, Alex J. (1995). «Complex problem solving: Toward a (computer-simulated) theory». In Frensch, P.A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 65–99.

  63. ^
    • Buchner, A. (1995). «Theories of complex problem solving». In Frensch, P.A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 27–63.
    • Dörner, D.; Kreuzig, H. W.; Reither, F.; Stäudel, T., eds. (1983). Lohhausen. Vom Umgang mit Unbestimmtheit und Komplexität [Lohhausen. On dealing with uncertainty and complexity] (in German). Bern, Switzerland: Hans Huber.
    • Ringelband, O. J.; Misiak, C.; Kluwe, R. H. (1990). «Mental models and strategies in the control of a complex system». In Ackermann, D.; Tauber, M. J. (eds.). Mental models and human-computer interaction. Vol. 1. Amsterdam: Elsevier Science Publishers. pp. 151–164.

  64. ^
    • Anzai, K.; Simon, H. A. (1979). «The theory of learning by doing». Psychological Review. 86 (2): 124–140. doi:10.1037/0033-295X.86.2.124. PMID 493441.
    • Bhaskar, R.; Simon, Herbert A. (1977). «Problem Solving in Semantically Rich Domains: An Example from Engineering Thermodynamics». Cognitive Science. Wiley. 1 (2): 193–215. doi:10.1207/s15516709cog0102_3. ISSN 0364-0213.

  65. ^ e.g., Sternberg, R. J.; Frensch, P. A., eds. (1991). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. ISBN 0-8058-0650-4. OCLC 23254443.
  66. ^
    • Chase, W. G.; Simon, H. A. (1973). «Perception in chess». Cognitive Psychology. 4: 55–81. doi:10.1016/0010-0285(73)90004-2.
    • Chi, M. T. H.; Feltovich, P. J.; Glaser, R. (1981). «Categorization and representation of physics problems by experts and novices». Cognitive Science. 5 (2): 121–152. doi:10.1207/s15516709cog0502_2.
    • Anderson, J. R.; Boyle, C. B.; Reiser, B. J. (1985). «Intelligent tutoring systems». Science. 228 (4698): 456–462. Bibcode:1985Sci…228..456A. doi:10.1126/science.228.4698.456. PMID 17746875. S2CID 62403455.

  67. ^ Sokol, S. M.; McCloskey, M. (1991). «Cognitive mechanisms in calculation». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 85–116. ISBN 0-8058-0650-4. OCLC 23254443.
  68. ^ Kay, D. S. (1991). «Computer interaction: Debugging the problems». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 317–340. ISBN 0-8058-0650-4. OCLC 23254443.
  69. ^ Frensch, P. A.; Sternberg, R. J. (1991). «Skill-related differences in game playing». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J .: Lawrence Erlbaum Associates. pp. 343–381. ISBN 0-8058-0650-4. OCLC 23254443.
  70. ^ Amsel, E.; Langer, R.; Loutzenhiser, L. (1991). «Do lawyers reason differently from psychologists? A comparative design for studying expertise». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 223–250. ISBN 0-8058-0650-4. OCLC 23254443.
  71. ^ Wagner, R. K. (1991). «Managerial problem solving». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 159–183. PsycNET: 1991-98396-005.
  72. ^
    • Pólya, George (1945). How to Solve It. Princeton University Press.
    • Schoenfeld, A. H. (1985). Mathematical Problem Solving. Orlando, Fla.: Academic Press. ISBN 9781483295480.

  73. ^ Hegarty, M. (1991). «Knowledge and processes in mechanical problem solving». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 253–285. ISBN 0-8058-0650-4. OCLC 23254443.
  74. ^ Heppner, P. P.; Krauskopf, C. J. (1987). «An information-processing approach to personal problem solving». The Counseling Psychologist. 15 (3): 371–447. doi:10.1177/0011000087153001. S2CID 146180007.
  75. ^ Voss, J. F.; Wolfe, C. R.; Lawrence, J. A.; Engle, R. A. (1991). «From representation to decision: An analysis of problem solving in international relations». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 119–158. ISBN 0-8058-0650-4. OCLC 23254443. PsycNET: 1991-98396-004.
  76. ^ Lesgold, A.; Lajoie, S. (1991). «Complex problem solving in electronics». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 287–316. ISBN 0-8058-0650-4. OCLC 23254443.
  77. ^ Altshuller, Genrich (1994). And Suddenly the Inventor Appeared. Translated by Lev Shulyak. Worcester, Mass.: Technical Innovation Center. ISBN 978-0-9640740-1-9.
  78. ^ Stanovich, K. E.; Cunningham, A. E. (1991). «Reading as constrained reasoning». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 3–60. ISBN 0-8058-0650-4. OCLC 23254443.
  79. ^ Bryson, M.; Bereiter, C.; Scardamalia, M.; Joram, E. (1991). «Going beyond the problem as given: Problem solving in expert and novice writers». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 61–84. ISBN 0-8058-0650-4. OCLC 23254443.
  80. ^ Sternberg, R. J.; Frensch, P. A., eds. (1991). Complex problem solving: Principles and mechanisms. Hillsdale, NJ: Lawrence Erlbaum Associates. ISBN 0-8058-0650-4. OCLC 23254443.
  81. ^ Hung, Woei (2013). «Team-based complex problem solving: a collective cognition perspective». Educational Technology Research and Development. 61 (3): 365–384. doi:10.1007/s11423-013-9296-3. S2CID 62663840.
  82. ^ Jewett, Pamela; MacPhee, Deborah (2012). «Adding Collaborative Peer Coaching to Our Teaching Identities». The Reading Teacher. 66 (2): 105–110. doi:10.1002/TRTR.01089.
  83. ^ Wang, Qiyun (2009). «Design and Evaluation of a Collaborative Learning Environment». Computers and Education. 53 (4): 1138–1146. doi:10.1016/j.compedu.2009.05.023.
  84. ^ Wang, Qiyan (2010). «Using online shared workspaces to support group collaborative learning». Computers and Education. 55 (3): 1270–1276. doi:10.1016/j.compedu.2010.05.023.
  85. ^ Kai-Wai Chu, Samuel; Kennedy, David M. (2011). «Using Online Collaborative tools for groups to Co-Construct Knowledge». Online Information Review. 35 (4): 581–597. doi:10.1108/14684521111161945. ISSN 1468-4527. S2CID 206388086.
  86. ^ Legare, Cristine; Mills, Candice; Souza, Andre; Plummer, Leigh; Yasskin, Rebecca (2013). «The use of questions as problem-solving strategies during early childhood». Journal of Experimental Child Psychology. 114 (1): 63–7. doi:10.1016/j.jecp.2012.07.002. PMID 23044374.
  87. ^ Engelbart, Douglas (1962). «Team Cooperation». Augmenting Human Intellect: A Conceptual Framework. Vol. AFOSR-3223. Stanford Research Institute.
  88. ^ Flew, Terry (2008). New Media: an introduction. Melbourne: Oxford University Press.
  89. ^ Henry, Jenkins. «Interactive audiences? The ‘collective intelligence’ of media fans» (PDF). Archived from the original (PDF) on April 26, 2018. Retrieved December 11, 2016.
  90. ^ Finger, Matthias (2008-03-27). «Which governance for sustainable development? An organizational and institutional perspective». In Park, Jacob; Conca, Ken; Finger, Matthias (eds.). The Crisis of Global Environmental Governance: Towards a New Political Economy of Sustainability. Routledge. p. 48. ISBN 9781134059829.
  91. ^
    • Guazzini, Andrea; Vilone, Daniele; Donati, Camillo; Nardi, Annalisa; Levnajić, Zoran (10 November 2015). «Modeling crowdsourcing as collective problem solving». Scientific Reports. 5: 16557. arXiv:1506.09155. Bibcode:2015NatSR…516557G. doi:10.1038/srep16557. PMC 4639727. PMID 26552943.
    • Boroomand, A.; Smaldino, P.E. (2021). «Hard Work, Risk-Taking, and Diversity in a Model of Collective Problem Solving». Journal of Artificial Societies and Social Simulation. 24 (4). doi:10.18564/jasss.4704. S2CID 240483312.

  92. ^ Stefanovitch, Nicolas; Alshamsi, Aamena; Cebrian, Manuel; Rahwan, Iyad (30 September 2014). «Error and attack tolerance of collective problem solving: The DARPA Shredder Challenge». EPJ Data Science. 3 (1). doi:10.1140/epjds/s13688-014-0013-1.

Further reading[edit]

  • Beckmann, Jens F.; Guthke, Jürgen (1995). «Complex problem solving, intelligence, and learning ability». In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 177–200.
  • Brehmer, Berndt (1995). «Feedback delays in dynamic decision making». In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 103–130.
  • Brehmer, Berndt; Dörner, D. (1993). «Experiments with computer-simulated microworlds: Escaping both the narrow straits of the laboratory and the deep blue sea of the field study». Computers in Human Behavior. 9 (2–3): 171–184. doi:10.1016/0747-5632(93)90005-D.
  • Dörner, D. (1992). «Über die Philosophie der Verwendung von Mikrowelten oder ‘Computerszenarios’ in der psychologischen Forschung» [On the proper use of microworlds or «computer scenarios» in psychological research]. In Gundlach, H. (ed.). Psychologische Forschung und Methode: Das Versprechen des Experiments. Festschrift für Werner Traxel (in German). Passau, Germany: Passavia-Universitäts-Verlag. pp. 53–87.
  • Eyferth, K.; Schömann, M.; Widowski, D. (1986). «Der Umgang von Psychologen mit Komplexität» [On how psychologists deal with complexity]. Sprache & Kognition (in German). 5: 11–26.
  • Funke, Joachim (1993). «Microworlds based on linear equation systems: A new approach to complex problem solving and experimental results» (PDF). In Strube, G.; Wender, K.-F. (eds.). The cognitive psychology of knowledge. Amsterdam: Elsevier Science Publishers. pp. 313–330.
  • Funke, Joachim (1995). «Experimental research on complex problem solving» (PDF). In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 243–268.
  • Funke, U. (1995). «Complex problem solving in personnel selection and training». In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 219–240.
  • Groner, M.; Groner, R.; Bischof, W. F. (1983). «Approaches to heuristics: A historical review». In Groner, R.; Groner, M.; Bischof, W. F. (eds.). Methods of heuristics. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 1–18.
  • Hayes, J. (1980). The complete problem solver. Philadelphia: The Franklin Institute Press.
  • Huber, O. (1995). «Complex problem solving as multistage decision making». In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 151–173.
  • Hübner, Ronald (1989). «Methoden zur Analyse und Konstruktion von Aufgaben zur kognitiven Steuerung dynamischer Systeme» [Methods for the analysis and construction of dynamic system control tasks] (PDF). Zeitschrift für Experimentelle und Angewandte Psychologie (in German). 36: 221–238.
  • Hunt, Earl (1991). «Some comments on the study of complexity». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 383–395. ISBN 9781317783862.
  • Hussy, W. (1985). «Komplexes Problemlösen—Eine Sackgasse?» [Complex problem solving—a dead end?]. Zeitschrift für Experimentelle und Angewandte Psychologie (in German). 32: 55–77.
  • Kluwe, R. H. (1993). «Chapter 19 Knowledge and Performance in Complex Problem Solving». The Cognitive Psychology of Knowledge. Advances in Psychology. Vol. 101. pp. 401–423. doi:10.1016/S0166-4115(08)62668-0. ISBN 9780444899422.
  • Kluwe, R. H. (1995). «Single case studies and models of complex problem solving». In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 269–291.
  • Kolb, S.; Petzing, F.; Stumpf, S. (1992). «Komplexes Problemlösen: Bestimmung der Problemlösegüte von Probanden mittels Verfahren des Operations Research—ein interdisziplinärer Ansatz» [Complex problem solving: determining the quality of human problem solving by operations research tools—an interdisciplinary approach]. Sprache & Kognition (in German). 11: 115–128.
  • Krems, Josef F. (1995). «Cognitive flexibility and complex problem solving». In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 201–218.
  • Müller, H. (1993). Komplexes Problemlösen: Reliabilität und Wissen [Complex problem solving: Reliability and knowledge] (in German). Bonn, Germany: Holos.
  • Paradies, M.W.; Unger, L. W. (2000). TapRooT—The System for Root Cause Analysis, Problem Investigation, and Proactive Improvement. Knoxville, Tenn.: System Improvements.
  • Putz-Osterloh, Wiebke (1993). «Chapter 15 Strategies for Knowledge Acquisition and Transfer of Knowledge in Dynamic Tasks». The Cognitive Psychology of Knowledge. Advances in Psychology. Vol. 101. pp. 331–350. doi:10.1016/S0166-4115(08)62664-3. ISBN 9780444899422.
  • Riefer, David M.; Batchelder, William H. (1988). «Multinomial modeling and the measurement of cognitive processes» (PDF). Psychological Review. 95 (3): 318–339. doi:10.1037/0033-295x.95.3.318. S2CID 14994393. Archived from the original (PDF) on 2018-11-25.
  • Schaub, H. (1993). Modellierung der Handlungsorganisation (in German). Bern, Switzerland: Hans Huber.
  • Strauß, B. (1993). Konfundierungen beim Komplexen Problemlösen. Zum Einfluß des Anteils der richtigen Lösungen (ArL) auf das Problemlöseverhalten in komplexen Situationen [Confoundations in complex problem solving. On the influence of the degree of correct solutions on problem solving in complex situations] (in German). Bonn, Germany: Holos.
  • Strohschneider, S. (1991). «Kein System von Systemen! Kommentar zu dem Aufsatz ‘Systemmerkmale als Determinanten des Umgangs mit dynamischen Systemen’ von Joachim Funke» [No system of systems! Reply to the paper ‘System features as determinants of behavior in dynamic task environments’ by Joachim Funke]. Sprache & Kognition (in German). 10: 109–113.
  • Tonelli, Marcello (2011). Unstructured Processes of Strategic Decision-Making. Saarbrücken, Germany: Lambert Academic Publishing. ISBN 978-3-8465-5598-9.
  • Van Lehn, Kurt (1989). «Problem solving and cognitive skill acquisition». In Posner, M. I. (ed.). Foundations of cognitive science (PDF). Cambridge, Mass.: MIT Press. pp. 527–579.
  • Wisconsin Educational Media Association (1993), Information literacy: A position paper on information problem-solving, WEMA Publications, vol. ED 376 817, Madison, Wis.{{citation}}: CS1 maint: location missing publisher (link) (Portions adapted from Michigan State Board of Education’s Position Paper on Information Processing Skills, 1992.)

External links[edit]

  • Learning materials related to Solving Problems at Wikiversity

  • Укажите какого порядка будет максимальная ошибка метода симпсона
  • Укажите какие ошибки допущены при передаче прямой речи косвенной перепишите исправляя предложения
  • Узнав эту прекрасную новость радости его не было предела исправить ошибки деепричастного оборота
  • Узм 3 63к индикация ошибок
  • Узкая дорожка была покрыта проваливающимся снегом под ногами какая ошибка