Искусственный интеллект как «бог из машины»: стоит ли AI доверить управление энергетическими системами

«Лучший способ предсказать будущее – изобрести его»

Алан Кей, ученый в области вычислительных систем

 

Как известно, политика, при всей многозначности этого слова, сводится к борьбе за власть. Без власти как цели не существовало бы никакой конкуренции, кандидаты на большие посты не были бы заинтересованы в играх с электоратом, и, в конечном счете, не мотивированны к выполнению предвыборных обещаний. Но что может произойти, если население выберет одного кандидата – спасителя, способного решить все вопросы, которому можно довериться уже сегодня и без предвыборной программы, представить легко.

Речь ведется о создании, сотворенном человеком разумным, которому пророчат роль deus ex machina буквально через пару десятилетий - искусственном интеллекте (ИИ), он же artificial intelligence (AI). Социологические исследования показывают, что большинство людей уже доверяют ИИ принимать решения в определенных вопросах.[1] Соответственно, в оппозиции находятся те, кто относятся к искусственному интеллекту со скепсисом, [2] но кто же их них прав? Могут ли разумные представители жизни планеты Земля объединиться под флагом программы для ЭВМ? Даже если для себя читатель решит, что он является участником мысленного эксперимента о Василиске Роко, бремя выбора еще ни на кого возложено не было.[3] Согласимся, что искусственный интеллект на данном этапе развития еще не готов брать на себя функции всемирного президента, поэтому рассмотрим текущий уровень прогресса в целом, а также через призму конкретной практической сферы – энергетики.

 2.4.jpg

Что AI уже готов предложить homo sapiens sapiens?

 

Искусственный интеллект, в основном воспринимается исключительно как нейронные сети, что не является в корне неверным, поскольку информационный шум сконцентрирован как раз вокруг такого ИИ. Авторы уже частично рассматривали вопрос, что из себя представляет AI, а также приводили примеры использования связанных с ним технологий, и приходили к выводу о полезности и распространенности внедрения ИИ в цифровую экономику.[4] Сфера достаточно обширна, а нераскрытых аспектов для обсуждения более, чем достаточно, в связи с чем тема исследуется вновь с других сторон.

ИИ как инструмент приобретает все больше новых граней, развитие не останавливается, хоть ажиотаж за последний год и успел снизиться. Тем не менее, интерес к этой сфере проявляют даже те, чья деятельность далека от современных технологий, даже Папа Римский.[5] С другой стороны, некоторых из нас новые технологии перестают удивлять (надо признать, это не является их назначением), для чего был даже придуман специальный термин «AI effect», подразумевающий под собой следующее – каждый раз по достижении определенной ступени развития наблюдатель возражает, что новые умения ИИ не являются на самом деле интеллектом, а всего лишь более навороченным или просто новым способом производить вычисления. Таким образом, по мнению скептически настроенных наблюдателей, настоящий AI разрешает такие проблемы, решения которых еще не были изобретены, в связи с чем тот самый настоящий интеллект, исходя из подобной логики, просто никогда не появится.[6] Не вдаваясь в подробности, что же в таком случае является настоящим интеллектом, отметим лишь способность людей подвергать сомнению действительность научных достижений любыми доступными методами, что, тем не менее, не должно становиться препятствием ни к дальнейшему развитию, ни к должной оценке достижений в сфере ИИ.

Искусственный интеллект готов подставить свое плечо уже во многих сферах, с каждым днем разработчики предлагают все больше новых сценариев применения ИИ – например, искусственный интеллект обучили искать метастазы рака;[7] нейросеть научилась писать пьесы для симфонического оркестра (хотя и не без помощи настоящего композитора),[8] так что и художественный потенциал у технологий тоже есть, в связи с чем упреки героя Уилла Смита из фильма «Я, робот» в адрес андроидов относительно творческого вектора их способностей перестают быть оправданными. По оценкам интернет-издания vc.ru, в 2018 году основными достижениями в сфере ИИ стали следующие:

·         создание универсальных систем понимания естественного языка;

·         решение задачи распознавания объектов на изображении;

·         ИИ научился выигрывать у профессиональных киберспортивных команд;

·         развитие архитектур процессоров, оптимизированные под обучение ИИ

·         разработка принципиально новых архитектур нейросетей.[9]

Очевидно, концентрация усилий компаний вокруг ИИ дает свои плоды. В энергетике прогресс также не стоит на месте – например, Clover Group предлагают технологии прогнозной аналитики для промышленного оборудования, которые позволяют получать информацию, на каком оборудовании может быть нарушена работоспособность;[10] компания IBM разработало программу под названием SunShot, в рамках которой ИИ прогнозирует выработку возобновляемых источников энергии (солнечных, ветряных и гидростанций), что позволяет настраивать режимы работ станций с наибольшей полезностью.[11] В свою очередь компания Belintegrator отмечает, что ИИ сейчас применяется в энергетике в 4 направлениях: умные счетчики (сбор данных), прогнозирование пиков, эффективное хранение и оперативное управление сетями, предиктивное техническое обслуживание.[12] Несомненно, перечисленное уже является серьезным достижением для участников рынка, эффективное распределение ресурсов – один из залогов успешного развития энергетической отрасли. Вместе с тем, можно предположить, что в перспективе применение ИИ заключается не только в автономном и максимально эффективном распределении энергоресурсов. Вполне вероятно, что на искусственный интеллект попытаются возложить функции по автономному сбору и обработке информации, а также принятие самостоятельных решений, как в штатных ситуациях, так и в кризисных. Генеральный директор АО «УК «Спутник — управление капиталом» Александр Лосев называет основные задачи ИИ в сфере атомной энергетики, которые, как представляется, являются общими для всей сферы в целом:

·         безопасность;

·         контроль состояния;

·         управление катастрофическими рисками;

·         создание цифровых моделей;

·         взаимодействие ИИ и автоматизированных систем управления технологическими процессами;

·         проектирование;

·         развитие науки;

·         создание новых технологических процессов;

·         кибербезопасность.[13]

Именно первые три пункта перечня составляют наибольшую сложность, и вместе с тем интерес. Создать алгоритм, который сможет безошибочно решать, когда применить те или иные меры по предотвращению аварии либо по спасению людей в случае возникновения происшествий, работающий независимо от людей – это задача действительно высокого уровня. В сущности именно такие функциональные обязанности возложены на лицо, контролирующее состояние энергосетей, т.е. на диспетчера. Именно он анализирует информацию, собранную вручную или с датчиков, а также обрабатывает аварийные вызовы, а на основе полученных сведений принимает решение. Должен ли ИИ обладать некими характеристиками, присущими для живых разумных существ, такие как интуиция, умение рисковать, брать ответственность за решения, либо же всегда человек должен нажимать на кнопку? Но даже если в конечном счете последнее слово остается не за машиной, ее целью должно являться предложение наиболее верного выхода из сложившейся ситуации.

 2.2.jpg

Можно ли вложить бразды правления «нечеловеку»? 

Активное внедрение искусственного интеллекта порождает проблемы, в том числе философского толка, с которыми человечество не сталкивалось, либо же пыталось решить настолько давно, что, казалось бы, уже утратили актуальность. Яркой иллюстрацией, знакомой большинству, является проблема вагонетки, значимость которой даже проверяли на прочность в условиях, приближенных к описываемым в упомянутом мысленном эксперименте.[14] Когда решает человек, кто должен пострадать, либо же отказывается от выбора вовсе, он руководствуется собственными представлениями о морали, должном либо же об условной полезности своего действия или иных значимых факторах, и, скорее всего, при столкновении с проблемой вагонетки лицом к лицу результаты и используемые подходы будут отличаться от описываемых социологами и философами, особенно при ограничении времени на принятие решения. Но главной целью обсуждения дилеммы все-таки является определение того, как должен действовать ИИ в таких ситуациях. В данном случае релевантным примером является использование средств ИИ в автономном управлении транспортными средствами. Рассмотрим более подробно эту сферу и попытаемся провести аналогию с энергетическими системами, ведь в обоих случаях речь идет о безопасности пользователей.

Несомненно, беспилотный автомобиль должен выпускаться на свет только в том случае, если он обеспечивает безопасность участников дорожного движения. Но существуют ситуации, в которых ДТП неизбежно, и в таком случае именно ИИ придется выбирать, кто и в какой степени должен пострадать. Как раз в данном вопросе очень уместны наработки мыслителей о том, что должен делать человек, способный поменять траекторию движения пресловутой вагонетки. Но не все так просто.

2.3 заглавная картинка.jpg

В первую очередь встает вопрос о том, по каким правилам должен строиться алгоритм принятия решений в действительно сложных аварийных ситуациях. Массачусетский технологический институт попытался выяснить это посредством масштабного онлайн-опроса, в котором приняло участие порядка двух миллионов респондентов.[15] Этот опрос предлагает участникам выбрать один из двух вариантов поведения автомобиля, управляемого автопилотом, у которого отказала тормозная система. Такие ситуации имеют место в реальной жизни, водителю приходится выбирать как действовать, и, в сущности, этот выбор включает в себя определение тех, кто пострадает. С одной стороны, вполне справедливым кажется возможность всемирным голосованием решить, как машина должна себя вести. С другой стороны, опрос выявил различия в ответах от представителей разных культур, для жителей разных стран приоритеты в спасении, например, молодых или людей преклонного возраста, оказались разными. В мире, в котором любой намек на приоритет интересов представителей одной расы над другой, осуждается моментально и с такой силой, что компаниям-«дискриминаторам» довольно сложно оправдаться за свои действия, вполне может сложиться ситуация, при которой общий результат консенсуса окажется совпадающим с точкой зрения определенной части суши, но не кажущийся справедливым для другой. По мнению Ивана Пузырёва, специалиста в области ИИ, очевидной кажется линия поведения ИИ, при которой она в приоритет ставит жизнь владельца машины, поскольку в ином случае никто не купит вещь, которая в определенной ситуации скорее убьет покупателя, чем кого-то другого.[16]

Во-вторых, ситуация осложняется поиском виновного. С правовой точки зрения искусственный интеллект, управляющий автомобилем, не является субъектом права, в связи с чем никакую ответственность сам по себе он нести не может, как не несет ее программа, пилотирующая самолеты. В будущем, гипотетически возможно появление такого лица в качестве некой фикции,[17] но сейчас такое представить себе невозможно, как невозможно представить и то, что ответственность наступит в отношении кого-либо, не учувствовавшего в ДТП непосредственно. Есть исключения и из этого правила, касающиеся, например, причинения вреда источниками повышенной опасности либо же работниками организации, и можно допустить, что как раз ИИ можно подвести под категорию таких источников с тем, чтобы закрепить ответственность за их владельцем. Действительно, искусственный интеллект сам по себе не является источником повышенной опасности, а лишь тот объект, управление которым он осуществляет. Но становится ли объект, изначально не являющийся источником опасности, таковым лишь по причине того, что им управляет ИИ вместо человека? Как разъяснял Верховный Суд РФ еще в 2010 году, «по смыслу статьи 1079 ГК РФ, источником повышенной опасности следует признать любую деятельность, осуществление которой создает повышенную вероятность причинения вреда из-за невозможности полного контроля за ней со стороны человека».[18] И если такой подход сохранится в тот момент, когда искусственный разум достигнет нужного уровня развития, встанет вопрос, что же все таки на самом деле является источником опасности. Но оставим этот вопрос на усмотрение правоприменителя из будущего.

Тем не менее, не всем представляется справедливым положение, что нейросеть может принципиально осуществлять выбор пострадавшего. Вероятнее всего устраивающий всех ответ на такой вопрос не может быть найден, и человеку придется смириться с тем, что в следующий раз он может выжить лишь благодаря принципам, заложенным разработчиком алгоритма, но в обществе дискуссия имеет место. Есть сторонники позиции, согласно которой решать машине в принципе не придется, ведь параметров, по которым ИИ должен определить линию поведения в аварийной обстановке, достаточно много, и ситуация, при которой будут равновесны вероятности выживания одинакового количества живых существ, может произойти с крайне малой долей вероятности, и целесообразней эту вероятность откинуть. Указанное соотносится с принципом разработки нейросетей «победитель получает всё», что помимо прямого смысла (выигрывает решение, которое набрало наибольший вес), означает, что в принципе всегда будет такой сценарий, который будет выбран AI как наиболее предпочтительный. Но не для всех это будет являться ответом. Алексей Гринбаум, философ физики, предлагает решать дилемму внесением в алгоритм элемент случайности, что с его точки зрения обеспечит справедливость принятия решения, обосновывая это аналогиями с французской системой высшего образования.[19]

Применим ли такой подход в тех сферах, как энергетика, где от выбора ИИ зависит жизнь человека в буквальном смысле, придется решать ученым и разработчикам. Решение о приоритетном распределении аварийных бригад может оказаться ключевым в вопросе ликвидации, как самой аварии, так и ее последствий, а случайность в таких вопросах может быть попросту недопустима, даже при прочих равных параметрах. Решение о замене износившихся коммуникаций в нужный момент может спасти жизни. В то же время ИИ не должен излишне перестраховываться, поскольку чрезмерно ранняя замена может пустить под финансовое состояние компаний. Такое же экономическое влияние окажет ситуация, при которой ИИ перекроет подачу ресурса на предприятие при отсутствии достаточных оснований. Возможно ли возложить на ресурсоснабжающие организации столь значительные риски по несению убытков? Этот и еще многие вопросы пока остаются нерешенными. Но даже если отбросить все перечисленные выше непростые моменты, которые могли бы стать серьезными барьерами к распространению технологии, необходимо понять, настал ли момент, когда можно довериться разуму искусственному, либо же при каких условиях человек разумный готов это сделать.

Прежде чем перейти к следующей теме, хотелось бы выяснить у специалистов IT-отрасли, что они думают о таких технологиях. Для этого авторы побеседовали с Александром Липканом, начальником отдела системного администрирования АО «Антикор».

Фото Липкан.JPG

- Александр Анатольевич, для чего нужен и как работает искусственный интеллект с Вашей точки зрения?

- Система искусственного интеллекта – образно выражаясь, это «костыль», который люди придумали в помощь себе для сбора, обработки информации, а также получения от такой системы рекомендаций. Искусственный разум – это нечто, что должно работать творчески. То есть это разные вещи, прошу заметить.

- Творчески – это в том числе самостоятельно?

- Думаю, что именно творчески, но не самостоятельно. Самостоятельность подразумевает полную свободу в действиях, а такая свобода может привести к реализации пессимистических сценариев. Я сам в них не верю, потому что контроль над действиями ИИ никуда не денется, плюс это вопрос правильного обучения.

- Искусственный интеллект как концепт подразумевает самообучаемость. Как с этим быть?

- Да, самообучаемость это часть концепта искусственного интеллекта сейчас, но опять-таки все сводится к контролю над действиями программы. Мне кажется, что постепенно ИИ придет и к саморазвитию в том числе. По сути, машина сможет дописывать сама себе программный код, но вектор развития все равно должен задаваться человеком. К этому все и шло. В ближайшее время мы вряд ли подойдем к созданию искусственного разума.

- Это невозможно сейчас только из-за технологических ограничений?

- Не совсем. Мы можем познать только то, что позволяют увидеть наши инструменты. Грубо говоря, сейчас мы не можем увидеть частицу, меньшую, чем ядро атома. Все частицы, которые меньше, существуют, по сути, в головах у людей. Мы сами не очень понимаем, что такое разум, поэтому как мы можем его создать? Этот вопрос можно ставить скорее нашим потомкам.

Еще одна мысль по поводу пессимистических сценариев. Роль человека в процессах, где задействован искусственный интеллект, постоянно занижается. Сейчас человек рядом с ИИ в общих представлениях находится как бы рядом с машиной, либо вообще оказывается ненужным. Наверно, самым оптимистичным примером является мультфильм «ВАЛЛ-И», в котором искусственный интеллект занимался созданием среды обитания для людей, а они наслаждались жизнью. Чем это закончилось в мультфильме прекрасно показано. С точки зрения человека замещение его машиной не является оптимистичным сценарием.

- Это верно с точки зрения людей. А с точки зрения машины?

- Вопрос подразумевает под собой самосознание машин, но я бы хотел говорить об управляемости. Я бы рассмотрел это в ином ключе.

Человек имеет право на ошибку. Если в результате ошибки что-то произошло нехорошее, он несет за это ответственность. Вопрос – а как эту ответственность будет нести искусственный разум?

- Возможно, виноват человек, создавший исходный код?

- Да, но кто будет ответственен, если программа пишет сама себя? Будет ли оставаться виновным человек при этом? Смысл искусственного разума заключается в том числе в его способности самосовершенствоваться. Может ли машина учитывать то, что она несет ответственность? То есть речь идет не просто о «блокировке» по примеру трех законов робототехники. Буквально на днях руководитель одного крупного банка заявил, что банк понес гигантского размера убытки из-за ошибок в работе системы искусственного интеллекта. Прошу заметить, это сделала машина без творческого начала, она просто принимала решение. И вопрос даже не в технологиях. Сейчас много рассуждают на тему видов искусственного интеллекта – кто-то говорит про нейронные сети, кто-то говорит про квантовые компьютеры. Важно не это, а важен алгоритм, последовательность принятия решения и ответственность с точки зрения машины. И, конечно, вопрос к юристам – появится ли свой уголовный кодекс для ИИ?

Имеет ли смысл развивать данные технологии без ответов на эти вопросы? Я не говорю сейчас о технологиях автоматизации, это не имеет отношения к искусственному интеллекту, там работает только простая логика: да, нет, или и другие операции. Система ИИ должна быть более, наверное, разумной. Ключевым, повторюсь, является вопрос – передавать бремя ответственности машине или нет. Если условный умный чайник не вскипятил чайник в 7 утра, это решаемо. А вот если он отключил целый район от электроснабжения, потому что он посчитал, что это невыгодно в данный момент? Как говорил один мой знакомый из Таджикистана, если у вас в квартире холодно, то надо просто открыть окно. Там, где мы проживаем, полагаться на машину в вопросах управления коммунальными системами однозначно недопустимо.

- Принципиально ли недопустимо самостоятельное принятие решений искусственным разумом или в каких-то моментах это будет являться нормальным?

- Я думаю, что принятие решение машиной – это то, против чего должны быть все, этот вопрос не должен стоять вообще, поскольку ИИ не вправе решать. Система может вычислить решение, предложить его, но не принять его. Если алгоритм какое-то решение предложил, то все должны четко понимать, что человек это решение принял. ИИ, как и любая другая машина, должна оставаться только машиной, инструментом, той палкой, которая сделала из обезьяны человека.

Кроме того, влияние машин должно в принципе должно быть минимальным в ключевых отраслях, критически важных для выживания человека, таких как энергетика, особенно важно это в России. Я как IT-специалист, в работе в первую очередь пытаюсь не сломать, то, что уже есть. Этот принцип должен применяться и в работе с ИИ.

- Желание получить помощь от ИИ никуда не денется, судя по тому уровню ажиотажа, который есть вокруг этой темы сейчас. Или он преувеличен, например, из-за подмены понятий?

- В первую очередь, те системы ИИ, что используются сейчас – это не искусственный разум. Вне зависимости от технологий, на которые они опираются, это лишь логические машины, работающие по заданному алгоритму. Сейчас компьютер не придумывает ничего нового, это лишь автоматизация. Рано или поздно мы поймем, как устроен человеческие мозг и разум, и тогда мы сможем построить аналог. Понял человек электричество – изобрел лампочку, вскипятил чайник – придумал, как использовать пар. Аналогии можно проводить бесконечно. Если бы не было птиц, человек бы полетел?

 

Готово ли человечество к передаче контроля искусственному интеллекту?

 

На самом деле, население Земли уже давно окружено ИИ-системами, при этом вполне успешно продолжает заниматься повседневными делами, банально не подозревая, что процесс выполняется с помощью таких технологий, о чем издание Business Insider писало еще в 2015 году.[20] В самых простых вещах уже задействованы интеллектуальные системы: от предиктивного набора текста до обработки запроса поисковой системы, от автопилота самолета до разблокирования смартфона по взгляду. Кроме того, разработчики ИИ-систем стараются привить своим творениям черты, свойственные человеку, в том числе для того, чтобы человек мог доверять такому роботу. Зачастую речь идет лишь об имитации поведения либо же способов мышления людей, однако даже способность машины во время сна обрабатывать информацию оказалась полезной, поскольку позволяет системе работать эффективнее не за счет постоянной работы, а как раз за счет смен фаз бодрствования и «сна».[21]

Вместе с тем, специалисты сомневаются, что AI окажется умнее человека, но искусственный разум является уже сейчас фактором, с которым приходится конкурировать в некоторых сферах.[22] Вероятно, способность брать на себя ответственность (как и быть субъектом юридической ответственности в принципе) нельзя устранить как фактор из цикла принятия решений, поэтому наиболее важная часть из них все равно будет производиться только по факту санкционирования конкретным лицом. Страх потерять свое рабочее место из-за замены работника искусственным интеллектом уже присутствует.[23] Действительно, разработка узкоспециализированного алгоритма, выполняющего низкоуровневые операции, особенно в вопросах точных вычислений, с большой долей вероятности окажется более выгодным решением для компании. Но действительно «умных» (разносторонних) ИИ-системах пока не существует, хотя маркетологи компаний, производящих умные колонки, пытаются убедить нас в обратном. И тут можно бы вспомнить об эффекте AI, но стоит ли?

Людей ИИ может пугать и по другим причинам: кто-то боится доверить свою жизнь в экстренной ситуации, полагаясь лишь на то, что окончательное решение будет за человеком, а кто-то переживает, что корпорации с помощью искусственного интеллекта получат ничем не ограниченную власть за счет обработки огромных массивов персональных данных. Буквально недавно OpenAI заявило, что создало алгоритм по скоростному созданию фейковых новостей, так что опасения относительно безопасности технологий ИИ действительно небезосновательны.[24] Наряду с реальными угрозами, мифов и предрассудков вокруг ИИ-технологий также сложилось уже достаточно, в связи с чем специалистам их приходится развенчивать, что тоже влияет на уровень доверия.[25]

Энергетика – достаточно консервативная отрасль, в связи с чем не в последнюю очередь готовность к переменам должна иметься от сотрудников. Для того чтобы хотя бы приблизительно оценить текущий уровень доверия работников, занятых в энергетической отрасли, по отношению к искусственному интеллекту, авторы решили опросить заместителя начальника Управления по эксплуатации газовых сетей и сооружений ГРО «ПетербургГаз» Дмитрия Зайцева.

- Как будет искусственный интеллект восприниматься работниками при внедрении его в текущую деятельность ГРО?

- Все зависит от того, в какую часть функционала технология будет внедряться. Например, построение маршрутов в ГИС прижилось, хотя это не является искусственным интеллектом как таковым, скорее средством автоматизации.

- Если говорить о внедрении ИИ как полноценного «диспетчера», который будет управлять работой с газовым оборудованием, как люди могут отнестись к тому, что решения будут приниматься не мастером или начальником участка, а программой?

- Достаточно сложно сказать, как на самом деле работники отреагируют на такие изменения. Первая реакция на указания от искусственного интеллекта о том, как человеку надо работать, вполне предсказуема. Если брать как пример обслуживание внутридомового газового оборудования, достаточно сложно представить, чтоб ИИ сам решал, что конкретно нужно делать слесарю-обходчику в каждой конкретной квартире, ведь определение наличия нарушений в некоторой степени субъективно.

- Разве это не является вопросом обучения такой системы?

- Соглашусь, для этого нужны единые стандарты принятия решений. Гипотетически, даже в различных подразделениях ГРО могут по-разному оценить одну и ту же ситуацию, в связи с чем по итогу могут быть приняты разные решения. Сегодня сложно представить, что искусственный интеллект способен на такую сложную оценку, интерпретацию, но на каком-то этапе можно будет правильно обучить ИИ, создать систему принятия таких решений.

- При наличии таких стандартов отпадет ли проблема доверия?

- Должно пройти какое-то время, прежде чем человек сможет доверять ИИ в таких вопросах. Технология должна себя положительно зарекомендовать с практической стороны – те советы, решения, которые предлагаются ИИ, должны быть верными. Но и искусственный интеллект может ошибаться, в любой системе может произойти сбой, в том числе и по причине внешнего воздействия. Хотя система, которая отслеживает утечки и самостоятельно прекращает подачу газа, скорее всего, будет воспринята положительно уже сейчас. Но проблема незнания, недоверия к таким технологиями определенно есть, на данный момент работникам «на земле» сложно будет воспринимать ИИ, который будет полноценно принимать решения по вопросам обслуживания сетей.

Конечно, ядерную кнопку искусственному интеллекту никто не вверит, но энергетические системы немногим менее опасны, если они окажутся под управлением ИИ-злодея, либо же попросту неверно спроектированной программы. Одним из способов решения проблемы доверия предлагается наличие человека, который контролирует действия ИИ. В рамках этого предложения, по аналогии с инструментом под названием «dead man’s switch» в рамках процедур, реализуемых искусственным интеллектом, всегда должно стоять ответственное за принятие решения лицо, даже если оно фактически не участвует в управлении, а лишь может отменить действие.[26] Действительно, достаточно много факторов влияет на то, как любую новую технологию воспринимают люди, не знакомые с принципами ее работы. А при отсутствии доверия возникает сомнения в рациональности решений, в связи с чем может упасть эффективность, либо же вовсе решения от AI могут игнорироваться, выполняясь лишь формально. Вероятно, только успешное внедрение и проверка временем поможет отбросить основную часть сомнений. С другой стороны, мало кто хотел бы такого же «успешного внедрения» технологии, как это произошло в китайской провинции Синьцзян, где алгоритм применяется для оценки благонадежности граждан.[27]

Согласимся, что пока исключить человека из цепочки принятия решений в целом представляется невозможным, как по причине отсутствия доверия такой системе, так и по причине недостаточного уровня развития ИИ сегодня. Первостепенной задачей при построении искусственного интеллекта будет устранение или, в крайнем случае, сведение возможных ошибок к минимуму. Энергетические компании пока стремятся к развитию ИИ, который дает экономически осязаемый эффект, вопросы безопасности оставляя «биологическим» диспетчерам. В действительности людям еще предстоит пройти долгую дорогу, полную дискуссий, вызовов и поисков нестандартных решений, прежде чем искусственный интеллект сможет на самом деле полноценно руководить процессами в энергетической сфере. К тому времени, как это станет возможным, для человечества это не станет неожиданностью, поэтому эффекта deus ex machina, скорее всего, не случится.




[1] Исследование: Более 60% россиян доверяют искусственному интеллекту // https://new-retail.ru/novosti/retail/issledovanie_bolee_60_rossiyan_doveryayut_iskusstvennomu_intell...


[2] Исследование: 39% потребителей не доверяют искусственному интеллекту // https://tass.ru/plus-one/5802549


[3] Мысленный эксперимент, предложенный участником сайта Lesswrong. Согласно эксперименту, Василиск — недоброжелательный искусственный интеллект, который захочет наказать в смоделированной вселенной тех, кто не выполняет его приказы и не способствовали его созданию; см. подробнее https://theoryandpractice.ru/posts/9427-vasilisk-roko


[4] Л.В. Березин. «Цифровая энергетика»: как цифровые технологии стали настоящим и будущим энергетики // ГАЗ-ИНФОРМ. № 3. 2018.


[5] Папа Франциск обсудил с Microsoft перспективы искусственного интеллекта // https://ria.ru/20190214/1550825870.html


[6] K. Bailey. Reframing the «AI Effect» // https://medium.com/@katherinebailey/reframing-the-ai-effect-c445f87ea98b


[7] В России разработан искусственный интеллект для поиска метастазов рака // https://takiedela.ru/news/2019/02/18/poisk-metastazov/


[8] Нейросеть «Яндекса» стала соавтором музыкальной пьесы // https://rb.ru/story/neuronet-yandex-music/


[9] Обзор развития технологий искусственного интеллекта в 2018 году // https://vc.ru/future/55610-obzor-razvitiya-tehnologiy-iskusstvennogo-intellekta-v-2018-godu


[10] Как искусственный интеллект применяют в российской энергетике // https://www.innoprom.com/media/letters/kak-iskusstvennyy-intellekt-primenyayut-v-rossiyskoy-energeti...


[11] А. Могиленко. Применение алгоритмов искусственного интеллекта в мировой энергетике // https://www.eprussia.ru/epr/345-346/4513899.htm


[12] Энергетика // http://bellintegrator.ru/AI-Energy


[13] А. Лосев. Искусственный интеллект в ядерной энергетике // http://atomicexpert.com/page3177509.html


[14] Проблему вагонетки протестировали в реальности. На мышах // https://nplus1.ru/news/2018/05/11/mice-trolley


[15] Кого давить беспилотному автомобилю: результаты эксперимента Moral Machine // https://habr.com/ru/company/smileexpo/blog/427747/


[16] Филоненко К. Почему мы боимся нейросетей // https://batenka.ru/aesthetics/scared-by-neural-network


[17] Ужов Ф.В. Искусственный интеллект как субъект права // Пробелы в российском законодательстве. № 3. 2017. С. 360.


[18] Постановление Пленума Верховного Суда РФ от 26.01.2010 N 1. П. 18.


[19] Квантовая логика и квантовый миф. Интервью с этиком новых технологий и философом физики Алексеем Гринбаумом // https://knife.media/grinbaum


[20] Guia Marie Del Prado. This phenomenon explains what everyone gets wrong about AI // https://www.businessinsider.com/misconception-artificial-intelligene-2015-10


[21] Starr M. Researchers Made an AI Whose Performance Increases if They Let It Sleep And Dream // https://www.sciencealert.com/neural-networks-performance-increases-if-they-re-allowed-to-sleep-and-d...


[22] Веров Я. Искусственный интеллект — не то, чем он кажется // https://www.nkj.ru/archive/articles/33857


[23] Технофобы боятся роботов из-за опасения потерять рабочие места // http://www.aiportal.ru/news/13268.html


[24] Лабораторию OpenAI создали для развития искусственного интеллекта «на благо людей». У ученых получился отличный генератор фейковых новостей // https://meduza.io/feature/2019/02/16/laboratoriyu-openai-sozdali-dlya-razvitiya-iskusstvennogo-intel...


[25] Крылов А. Самые важные заблуждения и вопросы об искусственном интеллекте и юридической профессии // https://zakon.ru/blog/2018/12/26/samye_vazhnye_zabluzhdeniya_i_voprosy_ob_iskusstvennom_intellekte_i...


[26] Филоненко К. Там же.


[27] Концлагерь на 10 миллионов уйгуров // https://meduza.io/feature/2018/09/18/kontslager-na-10-millionov-chelovek