Разделы

Цифровизация

Ольга Лукина: Разработка искусственного интеллекта не должна оказаться в руках деструктивных лидеров

Цифровизация и наращивание силы искусственного интеллекта могут иметь совсем не такие последствия для человечества, каких оно хочет. Эксперты считают, что у современного ИИ все еще много недостатков, и ключевой из них — неспособность принимать взвешенные решения. О том, почему многие ИТ-лидеры находятся на острие социальной ответственности перед будущим, о чем должны задуматься разработчики ИИ-решений и чем искусственный интеллект опасен уже сегодня, в интервью CNews рассказала кандидат медицинских наук, бизнес-психотерапевт, директор Института интегративной психотерапии и коучинга Ольга Лукина.

«Искусственный интеллект может принести не только технологические чудеса»

CNews: Происходящая на глобальном рынке цифровизация всего, чего угодно, поставила несколько важных вопросов перед человечеством и перед бизнесом. Например, многие эксперты говорят о том, что искусственный интеллект (ИИ) лишь возьмет на себя рутинные задачи бизнеса, оставив людям по-настоящему творческие задачи. Согласны ли вы с этим?

Ольга Лукина: Хотелось бы, чтобы это было именно так. В словах экспертов по ИИ декларируется идея прогресса, возможности для развития людей. С идеей я, конечно, согласна, но что произойдет на практике — вопрос открытый. Будучи экспертом в области эмоций, мышления и поведения лидеров, я осторожна. Потому что часто случается так, что они сознательно хотят сделать одно, но делают другое, и далеко не всегда готовы брать ответственность за последствия, а порой — даже не готовы признавать сам факт несоответствия запланированного и получившегося. Люди остаются людьми, и пока с ними сосуществуют их внутренние конфликты, подавленные детские страхи, обиды и гнев — их бессознательные мотивы могут идти вразрез с их рациональными намерениями и целями. Уже сейчас в области развития ИИ есть вещи, которые меня весьма настораживают.

Ольга Лукина: Уже сейчас в области развития ИИ есть вещи, которые меня весьма настораживают

CNews: У использования искусственного интеллекта сегодня много и сугубо теоретических, и вполне предсказуемых последствий. Многие, например, предрекают серьезные проблемы с ростом безработицы.

Ольга Лукина: Думаю, такая опасность существует. И в первую очередь она коснется людей не высококвалифицированных профессий. Я уверена, что высококлассный юрист или врач, как бы ни развивался и ни обучался ИИ, своей востребованности не потеряют. Потому что в основе их успешных стратегий лежат не только рациональные алгоритмы, но еще и интуиция, умение тонко чувствовать, что происходит с их клиентом на эмоциональном и физическом уровне, системное понимание окружающего контекста. А этого никогда не сможет робот. Поэтому, когда я обучаю или консультирую молодых людей, я очень рекомендую им инвестировать сегодня силы в свое развитие. Чтобы оказаться востребованными в будущем, людям необходимо владеть не только глубокими профессиональными знаниями, но еще и активно развивать свой эмоциональный интеллект (ЭИ).

Говоря о все большем проникновении ИИ в нашу жизнь, я думаю, что потеря рабочих мест — пожалуй, самое безобидное последствие. Я уверена, что политики и экономисты будут способны найти решение. Во мне ИИ вызывает не только предвкушение каких-то будущих технологических чудес, но и тревогу, ведь потенциал воздействия искусственного интеллекта намного превосходит потенциал атомной энергии. Если ИИ попадет в руки деструктивных лидеров, то мы можем получить значительно более страшные вещи, чем сокращение рабочих мест.

Я думаю, что разработчики в области атомной энергии, узнав о последствиях применения атомного оружия в Хиросиме и Нагасаки, оказались эмоционально и духовно не готовы к таким результатам своих научных и технологических изысканий: сотни изуродованных тел, тысячи мучительных смертей от лучевой болезни… Уверена, что осознание последствий сделало жизни этих ученых невыносимой. Я хотела бы обратить внимание на эту историю; необходимо делать из нее серьезные выводы для себя, проводить работу над ошибками, чтобы не допустить повторения того, что уже когда-то произошло.

CNews: Давайте попробуем объяснить, что такое эмоциональный интеллект.

Ольга Лукина: Есть распространенная точка зрения, что ЭИ — это способность человека чувствовать и понимать свои эмоции и управлять ими, а также его способность чувствовать и понимать эмоции других людей и управлять ими.

К сожалению, это популярное определение — весьма расплывчато и не может считаться полным, оно может ввести людей в заблуждение. Вспомним Остапа Бендера: он прекрасно умеет управлять эмоциями окружающих его людей, подчиняя их своим авантюрам и сиюминутным коммерческим интересам. Согласно имеющемуся определению, можно сказать, что у Остапа — высокий эмоциональный интеллект. Он очарователен и прекрасно считывает мотивы других людей, но они для него — лишь объекты для манипуляций. А всякая манипуляция — это силовая психологическая игра. Сегодня ты — кошка, которая наслаждается своей властью, терзая мышку, а завтра ты натолкнешься на еще более хитрого и коварного зверя. Люди, живущие в парадигме силовых игр, имеют незрелую невротическую личностную организацию, и они неизбежно приходят к поражению в развязке. Рано или поздно. Увы, они не умеют жить win-win.

Человек же со зрелой и целостной психикой раскусит и манипулятора, и его очарование, прикрывающее корыстное намерение, в два счета, и не позволит себя использовать.

Есть настоящие чувства и эмоции человека, а есть навязанные. В психотерапии есть соответствующий термин — «рэкетные» чувства. Например, вместо страха человек может чувствовать возбуждение, потому что он с детства должен был подавлять и не показывать страх. И именно это возбуждение будет вести его в опасной ситуации. Его бесстрашие будет равно безумию. Или другой пример: владелец бизнеса все время раздражается и кричит на своих подчиненных, веря, что только он один «знает истину». Эту модель он получил от своего агрессивного и доминирующего отца. Его чувство раздражения не связано с реальной ситуацией. Нам не удастся перейти с таким лидером к равноценному и эффективному сотрудничеству, пока он не осознает истоки своего раздражения и не заменит его на уважение к позиции других людей, признав за ними право быть умными.

В определении ЭИ обязательно должен присутствовать критерий высокого уровня осознанности, то есть понимание человеком своих подлинных чувств, а не их заменителей, навязанных кем-то в его далеком детстве. В определении ЭИ также должна быть учтена зрелая система ценностей человека, определяющая его выборы, за которые он готов нести ответственность. И, безусловно, это умение эмпатически присоединиться к чувствам другого человека.

Именно эти комплексные свойства психики дают человеку возможность жить с миром в парадигме «Я + Ты +» и достигать настоящего успеха… Альтернатива только одна — бесконечная игра в «кошки-мышки». Как свидетельствует всемирная история, все игравшие в больших кошек рано или поздно оказываются разодранными мышками. Это законы психики.

Если кому-то удобнее и проще интерпретировать ЭИ как способность справляться со своими невротическими эмоциями через манипулирование мотивами других невротических людей, то подозреваю, что ИИ сможет это освоить, так как здесь игровые последовательности предсказуемы, и потому могут быть оцифрованы. Но здесь не остается места для любви, творческой спонтанности, сострадания, а значит — осознанной созидательности. Возможно, где-то здесь и лежит тот самый судьбоносный выбор, который придется сделать человечеству в области ИИ.

«ИТ специалисты — на острие социальной ответственности перед будущим»

CNews: Вы много работаете с талантливыми ИТ-специалистами. Как у них обстоят дела с эмоциональным интеллектом? Как это может повлиять на развитие ИИ?

Ольга Лукина: ИТ-лидеры — очень нестандартные люди. С раннего детства ими движет мощный инстинкт познавать мир, находить ответы на вопросы, как что устроено и почему. Таким детям очень нужна защита и любовь родителей, чтобы их мозг полно раскрывал свой потенциал. Наталкиваясь на неразумное или непоследовательное поведение родителей, эти удивительные дети были вынуждены отдавать свои силы не на развитие, а на поиск возможности приспособиться. Они и в этом обычно преуспевают: их мозг находит решение, как внешне соответствовать жестким требованиям, сохранив при этом в себе тайное понимание того, «что есть что» на самом деле. Во взрослой жизни за такое раздвоение «того, что внутри» и «того, что снаружи» им приходится платить высокую цену.

Никто не отменял роль бессознательного жизненного сценария человека. Эта матрица, глубоко встроившаяся в психику, определяет выборы человека. Он бессознательно воспроизводит во взрослой жизни те же картины и сюжеты, от которых когда-то в детстве очень страдал. Это касается отношения к себе самому, отношений с окружающими людьми… Сценарий крадет внутреннюю свободу, спонтанность и ощущение эмоциональной безопасности внутри. Интеллектуальная и интересная работа может на многие годы стать спасательным кругом для этих людей, местом, куда они убегают.

Но это инфантильный способ психической защиты себя от эмоционального неблагополучия, он не совершенный и очень дорогой.

Как бы ни были глубоко скрыты внутренние конфликты и блоки этих лидеров, их совершенный мозг все равно может вычислить факт наличия эмоциональной травмы, как причины их страданий. И они безошибочно находят специалиста, который может показать то, что они смогли просчитать, но не смогли увидеть, прочувствовать и изменить.

Меня всегда поражала работоспособность и искренность ИТ-профессионалов уже в процессе самой психотерапии, проницательность мозга, который хватает суть нового и дальше уже работает сам.

Все, что нужно такому человеку для движения вперед, — не уступающий по системности и быстроте мышления оппонент. С другим психотерапевтом он просто не будет работать. Его психотерапевт должен сделать то, чего не может он сам: почувствовать зажатого внутри него ребенка и вызвать его к жизни. Другими словами, у терапевта должен быть высокий рациональный и эмоциональный интеллект. Иначе можно работу даже не начинать.

Ольга Лукина: Если ИИ попадет в руки деструктивных лидеров, то мы можем получить значительно более страшные вещи, чем сокращение рабочих мест

Я верю, что именно ИТ-профессионалы могут сделать нечто, что качественно изменит наш мир и превратит его в лучшее место. Они откроют возможности, о которых большинство из нас даже не подозревает. И при всем этом у меня есть тревога, что идеи и гениальные разработки этих людей попадут в руки деструктивных лидеров из миров бизнеса и политики, и именно они станут бенефициарами.

В моей книге есть эпизод, в котором ИТ-гений, приносящий корпорации миллиарды, беззвучно, как ребенок, плакал в моем кабинете, рассказывая мне об унизительной ситуации, в которой он не смог себя отстоять. Его босс, будучи с утра в плохом настроении, так сильно был недоволен темпом сложнейших разработок ИТ-департамента, что ему недостаточно было словесно оскорбить своего ИТ-директора. Он захотел раздавить его человеческое достоинство, показав свою безграничную власть. Он демонстративно вытер свои сопли о бумаги, которые принес ИТ-директор, готовивший их несколько бессонных ночей. Это была лайт-версия внешнего проявления деструктивного лидерства, которое является самой большой угрозой для всех нас.

Все это уже было в истории. Мы все читали о случае на банкете в честь первого испытания водородной бомбы, когда генерал авторитарно осадил скабрезным анекдотом Андрея Сахарова, предложившего тост за то, «чтобы ядерное оружие никогда не было использовано против людей!»: «Ваше дело — укреплять, а наше дело – направлять», — сказал генерал.

В истории с моим клиентом в силу вступили его детские страхи, образ пугающей родительской фигуры слился с образом могущественного босса. Мой клиент мог уйти в любую компанию. На рациональном уровне он знал о своей востребованности, но на иррациональном уровне он чувствовал себя беззащитным ребенком, продолжая терпеть унижения, он не мог даже сказать слово в защиту себя.

ИТ-профессионалы, занимающиеся ИИ, не имеют права разрешать кому-то так к себе относиться. Они не имеют права относиться к своим разработкам, как к увлекательным детским игрушкам. И не имеют права использовать работу, как способ убегания от неразрешенных эмоциональных проблем. Потому что потенциал того, что они делают, слишком велик.

За мозгами тех, кто делает прорывные инновации, идет охота. Ключевым становится вопрос ответственности ИТ-лидеров за то, что они делают, и за то, как это будет использовано. Это — вопрос целостности человека, его профессиональной и человеческой этики.

И он — на самом острие иглы.

CNews: Вы привели в качестве примера атомную энергию и связанные с ее использованием негативные последствия. А какие угрозы несет в себе именно искусственный интеллект? Есть ли у вас какие-то примеры?

Ольга Лукина: За ответом на этот вопрос не придется далеко ходить. Предупреждающие об опасности антиутопические и фантастические романы уже сегодня наливаются жизнью. У меня создается ощущение, что Google заметно преобразуется из демократичной развивающей площадки, которая открывала нам возможности выбирать самую разнообразную и не ангажированную информацию, в среду, в которой все более заметно влияние лидерства деструктивного типа.

Например, они считают, что могут экономить на грамотных интеллектуальных контент-менеджерах, стремятся исключить их из процесса. Возможность принимать решения передается искусственному интеллекту, который настраивается таким образом, что зачастую не пропускает через свое сито нестандартный и оригинальный контент, способный развивать людей и самих лидеров.

Пандемия коронавируса стала провокатором и ускорителем этого процесса: люди ушли на карантин, а право принятия решения относительно приемлемости контента в YouTubе по факту перешло к искусственному интеллекту.

Чем это обернулось на практике: в разгар пандемии мы разместили серии моего документального сериала «Лидеры в моем кабинете» на YouTubе. Этот фильм — как раз о лидерах, которые пришли в аналитическую терапию, чтобы работать над собой; о том, как они проходили свой непростой путь, возвращая себе способность любить себя и людей, как они с болью продирались через свои болезненные амбиции; о том, как они заново учились доверять, как расчищали путь к своей самореализации, чтобы идти к своим настоящим целям; как они из тиранов и бунтарей превращались в свободных и созидающих лидеров. Материал — не банальный.

Этот контент искусственный интеллект YouTube не пропускал! Нами были заявлены шесть апелляций, но ничего не менялось. Редкие живые менеджеры на связь практически не выходили, отписываясь удивительными текстами вроде: «Мы очень сожалеем, сами проблем в контенте не видим, но он не проходит робота, а мы сделать ничего не можем. Пишите, пожалуйста, еще одну апелляцию. Очень надеемся, что система фильм пропустит». Во мне нарастало удивление: «В чем цель очередной апелляции? В надежде снискать милосердия у ИИ?» Как психиатр, я отдавала себе отчет, что это столь же бессмысленно, как искать благоразумности у психотика.

Мини-антиутопия сегодня? То есть, теперь принятием решения о допустимости контента для YouTubе занимаются роботы, и человек уже не может вмешаться? Ну, тогда это сигнал «SOS», и нам предстоит получать лишь посредственный, усредненный и направленный контент… Вероятно, это устраивает людей, принимающих решения. Но устраивает ли это тех же ИТ-лидеров, которые строили площадку, думая о свободном развитии людей?

CNews: У вас есть понимание, чем искусственному интеллекту не понравился этот материал?

Ольга Лукина: Я полагаю, что искусственный интеллект улавливает «неприемлемые» слова. Например, рассказывая о своем пути, я использую, например, словосочетание «психотропные препараты». Или, рассказывая про своего клиента, бизнесмена из 90-х годов, я упоминаю особенности того времени. Как у нас тогда строился бизнес? Без бутылки коньяка были переговоры? Только те, которые с водкой. Это — документалистика. Искусственный интеллект ловит слово, условно, «алкоголь», и не пропускает контент. Он распознает слова, но не понимает смысл. В английском языке это слово («sense») имеет такие значения, как «ощущение», «эмоциональный и интеллектуальный смысл». К слову, у меня есть примеры того, что не лучше обходится с нестандартными текстами и «Яндекс». Все было бы гораздо проще, если бы этими настройками конструктивно и созидательно управляли лидеры, несущие ответственность, в том числе, за несовершенство искусственного интеллекта.

Эффективность лидеров заканчивается, когда они начинают экономить на человеческом разуме, и искусственный интеллект начинает принимать свои решения, оставляющие за скобками понятие «смысл».

Хотелось бы, чтобы лидеры YouTube и «Яндекса» интерпретировали мои замечания как конструктивную критику, как помощь в построении здоровых деловых партнерских отношений с авторами, которые уважают себя и свой контент.

«Многие боятся автоматизации»

CNews: Как вы считаете, почему во многих компаниях сотрудники встречают появление ИИ с некоторым опасением? Является ли это проявлением иррационального страха перед объектами, действующими подобно человеку? Или дело в банальном страхе потерять работу?

Ольга Лукина: Присутствуют оба эти страха. Но работа с иррациональными страхами — не компетенция руководителя. Это компетенция психотерапевта. Если, конечно, человек обратится с таким запросом.

А вот с вполне рациональным страхом потерять работу должно справляться государство. Вернемся к началу нашего диалога. Бизнесмены, желая уменьшить ФЗП, будут стремиться к использованию ИИ. И зрелое, думающее о своих людях государство должно быть готово предложить высвобождающимся людям альтернативу.

Ольга Лукина: Эффективность лидеров заканчивается, когда они начинают экономить на человеческом разуме, и искусственный интеллект начинает принимать свои решения, оставляющие за скобками понятие «смысл»

CNews: Нужно ли предпринимать какие-то шаги, направленные на «очеловечивание» искусственного интеллекта?

Ольга Лукина: Мы до сих пор не понимаем до конца, что такое человеческий интеллект и как функционирует человеческий мозг. Сможем ли мы создать искусственный интеллект, схожий по своим функциям с мозгом? Сознание умнейших людей планеты продолжают разрушать болезни: Альцгеймер, болезнь Пика, злокачественные формы шизофрении… И мы бессильны. Каждому остается только молиться, чтобы участь сия его не настигла. Многие интеллектуально сильные люди ведут себя невротически, повреждая себя и других людей. Любовь и спонтанность оцифровке не подлежат. Что тогда понимать под «очеловечиванием» ИИ? Может быть, попытку алгоритмизировать невротические последовательности? Я не знаю, как ответить на ваш вопрос.

CNews: Мне кажется, такая цель сейчас не стоит, это считается относительно недостижимой точкой.

Ольга Лукина: Раз так, то искусственный интеллект должен оставаться прикладным инструментом. И во все те моменты, когда необходимо именно принятие решения, рядом с роботом должен находиться ответственный и профессиональный человек, способный эти осознанные решения принимать.