Донецкий национальный технический университет

 

Автор: Козлов А.Ю.

 

Разделение ответственности о принятом решении между человеком и компьютером

 

Для начала разъясним для себя что такое ответственность. В литературе встречается такое определение ответственности. Ответственность — субъективная обязанность отвечать за поступки и действия, а также их последствия. [1]

Применительно к отношениям человека и компьютера данное определение можно трактовать как способность нести ответ за поступки и действия, а так же их последствия. То есть речь идет к тому, что компьютер сам по себе существо не одушевленное, а это говорит о том, что он не может отвечать за последствия тех вариантов решений, которые предлагает сам.

И все было бы ничего, если бы в наш век повсеместной автоматизации и компьютеризации информационные технологии не зашли настолько далеко, что многие решения, принимаемые человеком, часто основываются на тех рекомендациях, которые дает ему компьютер. Например, среди таких рекомендующих систем есть программы по прогнозированию поведения курса валют на бирже, программы прогнозирующие погоду на каком-либо участке местности, и так далее. В общем случае такие программы называют экспертными системами или системами поддержки принятия решений (СППР).

Что же такое системы поддержки принятия решений? В литературе встречается такое определение - компьютерная автоматизированная система, целью которой является помощь людям, принимающим решение в сложных условиях для полного и объективного анализа предметной деятельности.[2] Как видно из определения целью деятельности этих систем есть ни что иное как анализ предметной деятельности и помощь людям в принятии решений, а не навязывание своего варианта решения, претендуя при этом на единственно правильность оного. Поэтому, как видно и выше изложенного, пользователь таких систем должен воспринимать информацию, поступающую из этих систем как справочную, но не более, потому как еще не создано такой системы, вероятность правдивости решений которой равнялась бы единице.

Да и собственно не было бы никакой проблемы, если бы не возникало конфликтов связанных с ошибочными решениями. А в результате ошибочного решения возникает потребность в наказании за эту ошибку, что в свою очередь сводится к поиску ответа на вопрос: «На каком этапе принятия решения возникла данная ошибка». А собственно этапов-то не так уж и много, и приведены они на рис 1.

И на каждом из этих этапов возможно возникновение ошибки. Начиная с первого этапа: «Сбор информации», возможно возникновение ошибки в виде погрешности в измерениях или неверно проведенных измерениях, и ответственным тогда оказывается оператор, который производил данные измерения. Либо человек, который проектировал автоматизированную систему проведения измерений. Но данный вид ошибок довольно просто можно проверить математическими методами и по возможности снизить их влияние.

На втором этапе «Дополнительные вычисления на основе исходной информации» так же возможны ошибки из за невнимательности проводящего вычисления, но в наш век компьютеризации этот вид ошибки полностью исключается при помощи автоматизации вычислений через компьютерные программы. И тогда погрешность данного этапа основывается на степени погрешности предыдущего этапа.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


Рисунок 1. – Алгоритм принятия решений в общем виде

 

Третий этап «Обработка полученных данных и определение возможных решений» это процесс сопоставление имеющихся правил и знаний с полученными данными в результате предварительных измерений и дополнительных расчетов. Результатом данного этапа зачастую может быть список возможно правильных решений. Этот процесс может выполняться вручную каким-либо человеком, а может автоматизироваться при помощи компьютера. При выполнении обработки данных вручную причиной возникновения ошибки может быть довольно много факторов: невнимательность человека; не точность запоминания этим человеком информации; вообще низкая квалификация человека; субъективные причины пропуска проверки каких-либо редко встречающихся в жизни правил, или другими словами – люди проверяют в первую очередь те варианты решений, которые чаще всего встречаются, при этом упуская редкие варианты решений. При автоматизации данного процесса возможно исключение таких причин ошибок как субъективизация данного процесса, а так же снижается значимость квалификации пользователя, и полностью исключается момент внимательности и точности запоминания данных, но при этом возможной причиной ошибки можно назвать такой момент как не идеальность алгоритма, реализованного программным кодом, или другими словами не доработки программиста могут проявиться на результатах работы программы. В итоге на этом этапе ответственность за ошибку в решении могут разделить между собой человек, выполняющий обработку данных, и, снова таки, человек, который стоит за программой, то есть ее создатель – программист.

И на последнем этапе принятия решений - «Выбор конечного решения», происходит отбор из списка возможно правильных решений только тех, которые, по мнению пользователя, являются действительно правильными. Тут вся ответственность за конечное решение, и, соответственно, за совершенные ошибки ложится на плечи пользователя, который собственно и выбирает решения. Такой пользователь играет, по сути, роль эксперта или последнего фильтра списка решений, который должен отвергнуть заведомо неверные решения и оставить только абсолютно правильные решения. На сегодняшний день этот этап практически повсеместно оставляется на исполнение людьми, хотя попытки его автоматизации были. В результате таких попыток возник такой раздел систем поддержки принятия решений, как экспертные системы. Эти системы характерно отличаются от остальных видов СППР тем что, во-первых, они выдают одно или несколько решений вероятность правдивости которых максимально стремится к 1, и, во-вторых, они своим существованием должны заменять наличие выше упомянутого эксперта.

Вообще экспертные системы – это один из самых сложных видов программного продукта в сфере принятия решений, и не потому, что база знаний и правил в них должна бесконфликтно охватывать всю предметную область решаемого вопроса, но и потому, что данные системы фактически берут на себя всю ответственность за принятые решения. В сою очередь это значит, что в случае возникновения ситуации, которую не продумали разработчики на этапе создания этой системы, возможно возникновение неверного решения. А, значит, разработчики полностью отвечают за последствия такого неверного решения.

А так как написать идеальную программу практически не возможно, как и создать идеальную статую чего-либо живого. Ведь что в одном, что в другом случае создается не одушевленный объект, который по своим свойствам похож на живое, но при этом уступает в наличии свободы выбора, которая в свою очередь есть у всего живого. Вот именно эта свобода выбора обуславливает способность всего живого приспосабливаться к меняющимся условиям среды, изменения которых, порой невозможно предвидеть или вычислить.

В итоге как видно из выше приведенного материала создать поистине экспертную систему как таковую не возможно, именно поэтому на сегодняшний день экспертные системы остаются разделом систем поддержки принятия решений, а не выделяются в отдельную область применения информационных технологий, в, так сказать, область принимающих решения программ.

Делая выводы по данной статье можно выделить такие пункты. Во-первых, так как компьютер как таковой не может отвечать за принимаемые решения во всех системах последней инстанцией в проверки правильности решений является человек, который в итоге и будет отвечать за последствия выбранного решения. Во-вторых, в случаях, когда все-таки доказывается неверность выдаваемых результатов самим компьютером, ответственность за это ложится на разработчиков и администраторов данной системы. В-третьих, создание идеальной системы практически невозможно,  что в свою очередь возвращает нас к первому выводу – результаты работы любой автоматизированной системы должен контролировать человек.

В итоге вся ответственность все равно сводится к человеку, по сему процесс поиска виноватого в ошибки фактически сводится к выбору этого виноватого из ряда: исследователи (те люди, которые делали замеры, или проектировали системы замеров), обработчики информации, или программисты, которые создавали программы для каждого из этапов. Так что, как мы видим, ответственность разделяется между людьми, а не между человеком и машиной, и практически всегда можно найти виновных в возникновении той или иной ошибки.

 


Список используемой литературы

 

1.      Введение в философию ответственности. Монография / А.И.Ореховский [и др.]; под общ. ред. А.И. Ореховского. – Новосибирск: СибГУТИ, 2005.- 186 с.

2.      Ларичев О. И., Петровский А. В. Системы поддержки принятия решений. Современное состояние и перспективы их развития. // Итоги науки и техники. Сер. Техническая кибернетика. — Т.21. М.: ВИНИТИ, 1987, с. 131—164