В зловещей долине тени данных мы не должны бояться зла и готовиться к совершенно иному будущему | www.christianitytoday.com |
За последние несколько недель произошли два события, которые изменят наше будущее. Одним из них стал запуск новой программы искусственного интеллекта OpenAI GPT-4o, которая опередила несколько конкурентов, которые сделают то же самое в течение нескольких недель. Другой случай - лишение сана робота-священника за то, что он учил, что крещение можно проводить с помощью Gatorade. Боюсь, церковь не готова ни к тому, ни к другому.
Самым обсуждаемым событием стал анонс OpenAI, дополненный видеороликами, на которых ИИ-программа смеётся, кажется, краснеет, рассказывает анекдоты, видит и описывает происходящее в реальном времени и даже поёт песни, сочинённые на ходу (с той степенью эмоций и энтузиазма, которая требовалась).
Гораздо менее заметным в культурном плане был тот факт, что всего за несколько недель до этого римско-католическая апологетическая платформа Catholic Answers запустила чат-бот с искусственным интеллектом под названием “Отец Джастин”, который был разработан, чтобы помогать людям в вопросах доктрины и практики.
Люди начали расстраиваться, когда отец Джастин начал заявлять, что он настоящий священник, способный принимать исповеди и совершать таинства, и когда он начал давать неортодоксальные ответы на вопросы, например, что можно крестить ребёнка с помощью Gatorade в экстренных случаях (магистериум говорит "нет").
Теперь отец Джастин - просто “Джастин”, “теолог-мирянин”. В ответ на критику Catholic Answers признались критикам, что они являются первопроходцами в новом технологическом ландшафте и узнают — как и весь мир — насколько сложно сохранить ортодоксальность искусственного интеллекта. Если мои друзья-католики считали Мартина Лютера плохим, подождите, пока роботы не начнут размещать тезисы в облаке.
Однако, прежде чем смеяться над Catholic Answers, стоит задуматься над цитируемым ныне почти банальным анекдотом о том, как проповедник 19-го века Д. Л. Муди ответил критику своей евангелизационной практики: “Но мне нравится, как я это делаю, больше, чем то, как вы не делаете". За кулисами почти каждое дальновидное служение любого рода беспокоится о том, как быть готовым к миру, преобразованному искусственным интеллектом, представляя, что было бы, если бы Лютер не был готов к эпохе Гутенберга или если бы Билли Грэм не был готов к телевизионному веку.
Один эксперт по ИИ недавно сказал мне, что он и другие понимают, что люди могут сказать ИИ то, в чём они никогда бы не признались человеку. Например, врачи знают, что, задавая пациенту вопрос “Сколько вы пьёте в неделю?”, они получат один ответ от потенциального алкоголика, в то время как чат-бот получит ответ, гораздо более близкий к честному.
По словам этого эксперта, то же самое верно, когда речь заходит о духовном поиске. Человек, который никогда бы не спросил христианина: “Что будет со мной, когда я умру?” или “Почему я чувствую себя таким виноватым и пристыженным?”, с гораздо большей вероятностью задаст такие вопросы разуму, который не является другим человеком. В некотором смысле это звучит странно похоже на Никодима, который приходил ночью задавать вопросы Иисусу (Иоанна 3:1-2).
“Вопрос не в том, будут ли люди искать чат-ботов для подобных серьёзных вопросов”, - сказал мне эксперт. “Вопрос в том, будут ли ответы, которые они получат, неверными с духовной точки зрения”.
Реальная проблема может заключаться не столько в том, сможет ли церковь продвигаться достаточно быстро, чтобы воспринимать мир искусственного интеллекта как поле своей миссии, сколько в том, будет ли она готова к противоречивой эмоциональности, которую мы заметили даже в большинстве наших ответов на анонсы самих видеороликов OpenAI.
Эти видео вызвали у многих людей восторг, сравнимый с высадкой на Луну. Как я сказал своей жене: “Посмотри на это. Ты можешь себе представить, как это помогает ребёнку решить задачу по геометрии?” Я понял, что однажды моя реакция покажется мне такой же наивной, как в старых видеороликах, где телеведущие спорят друг с другом о том, как произносится символ “@” в новой технологии, называемой электронной почтой.
Однако, в то же время, видео многих из нас немного напугало. Смутное чувство беспокойства описывается психологами как “Зловещая долина”. Именно по этой причине многие люди пришли бы в ужас, оказавшись запертыми на фабрике по изготовлению кукольных голов или в сарае, заполненном манекенами. Люди, как правило, реагируют с ужасом на то, что выглядит достаточно реалистично, но не совсем соответствует действительности. То, что наш мозг хочет воспринимать одновременно как “человеческое” и “нечеловеческое” или как “живое” и “мёртвое”, как правило, выводит из строя нашу лимбическую систему.
Как предупреждали нас Маршалл Маклюэн и Нил Постман, печать, радио, телевидение и цифровые средства массовой информации оказывают своё влияние на распространение Евангелия. Но что общего у этих средств массовой информации с устным возвещением, так это связь, пусть и слабая, с личным. Кто-то может не знать, кто написал евангельский трактат, который можно найти на улице, но кто-то точно знает, что где-то там, по ту сторону этого, есть человек.
С одной стороны, я почти убеждён в том, что искусственный интеллект можно отнести к той же категории, что и перо, которым Павел писал свои послания, или источники, собранные Лукой для написания своего Евангелия. Программы искусственного интеллекта разрабатываются людьми, и Слово Божье обладает силой независимо от формата.
Но даже в этом случае, похоже, дело не только в этом. Испытывают ли люди здесь беспокойство из-за “зловещей долины” только потому, что это новая технология, к которой мы ещё не привыкли? Может быть. Или, может быть, за этим кроется что-то ещё.
Несколько недель назад в Instagram-аккаунте Sketchy Sermons появилась карикатура на цитату комика Джарона Майерса: “Я видел, как слишком много молодёжных пасторов говорили: "Будьте осторожны в TikTok, там девушки танцуют в одних купальниках", а я такой, "братан … это же алгоритм подсовывает предпочитаемое видео”.
Шутка работает, потому что сейчас мы живём в экосистеме, где всё кажется гиперперсонализированным. Кажется, алгоритмы знают, к чему склоняется сердце человека, лучше, чем пастор, супруг или даже собственное сердце этого человека. Если вам нравится контент о вязании, вы видите контент о вязании. Если вам нравятся видео с котиками, вы видите видео с котиками. А если вам нравятся танцы в бикини, теории заговора или курение марихуаны, вы тоже получите этот контент.
По иронии судьбы, именно из-за этой гиперперсонализации нынешняя эпоха кажется такой безличной. Даже если кажется, что машина знает вас, вы не можете не понимать, что она знает только то, как продавать вам товары.
Однако Евангелие нельзя воспринимать иначе, как личное. Если Слово Божье исходит от самого Духа Христова (1 Пет. 1:11), то, когда мы слышим его, мы слышим не просто “содержание”, или “информацию”, или разрозненные данные, подготовленные в соответствии с нашим любопытством и аппетитами. Мы слышим Его.
Как передать это в мире, где люди задаются вопросом, является ли то, что они слышат, всего лишь информацией из их собственной цифровой жизни, собранной и затем переданной им обратно?
То, что многих тошнит при виде дружелюбного, услужливого и, казалось бы, всезнающего ИИ, может рассказать нам что-то о нас самих. Несмотря на карикатуру, философ Леон Касс никогда не говорил, что “мудрость отвращения” является аргументом за или против чего-либо. Он писал, что когда мы испытываем какое-то отвращение, мы должны спросить, почему. Иногда это просто культурная обусловленность или страх перед неизвестным, но иногда это “эмоциональное выражение глубокой мудрости, которую невозможно выразить словами”.
Должны ли мы сделать вывод, что Бог способен из этих чат-ботов вырастить детей для Авраама? Как нам убедиться, что, когда люди жаждут живой воды, мы не даём им Gatorade?
Что я знаю точно, так это то, что никакая новая технология не сможет превзойти одну из старейших технологий из всех: технологию пастуха, ведущего стадо своим голосом. Да, хотя мы и идём по зловещей долине тени данных, нам не следует бояться зла. В то же время мы должны быть готовы к совершенно иному будущему, но я не уверен, что мы готовы.
|