Главная | Регистрация | Вход
Приветствую Вас Гость
             
Искусственный интеллект сформирует вашу душу
Но как - зависит от нас
В Силиконовой долине лето, и я вышла на пробежку по своему району. Это самое красивое время года: цветущие апельсиновые деревья, клумбы, густо заросшие маками, розы размером с ладонь цвета фуксии и лимона. В ручье течёт тонкая струйка воды, температура ниже, чем прошлым летом, и мы с оптимизмом смотрим на пожароопасный сезон в этом году.

Когда я уже почти дома, я натыкаюсь на внедорожник с жужжащими датчиками, прикрепленными к его верху и бокам, пытающийся повернуть налево на перекрестке, по пешеходному переходу, которым я должна воспользоваться. Это самоуправляемое транспортное средство, собирающее данные об окружающей среде для совершенствования своего искусственного интеллекта. В Сан-Франциско целые автопарки уже передвигаются самостоятельно. Здесь, в Пало-Альто, я обычно вижу их на тест-драйвах, с людьми-операторами, готовыми вмешаться, если что-то пойдёт не так. И действительно, в машине сидит молодой человек.

Я останавливаюсь на углу, переступая на месте. “Езжай”, я машу рукой. Я не собираюсь рисковать тем, что эта машина, какой бы умной она ни была, знает нюансы права пешеходов. Машина рванулась вперед, затем остановилась на полпути. Снова бросается вперед, снова останавливается.

Человек-“водитель”, похоже, нервничает. Почувствует ли автомобиль моё присутствие, если я выскочу на дорогу, или он решит проехать вперёд? Не будет ли он слишком осторожен, вообще отказываясь выполнять ход? Придётся ли несчастному человеку вмешаться? Наконец, машина с трудом преодолевает перекресток и продолжает свой путь. Я продолжаю свой. На другой стороне улицы две женщины в козырьках останавливаются, чтобы спросить: “В той машине кто-то был?”

“Да”, говорю я, - но он выглядел испуганным”. Женщины смеются. Мы все понимаем. Технология классная, но мы ей не совсем доверяем. Мы действуем осторожно.

Мы надеемся: автомобили с автономным управлением, которые никогда не отвлекаются на свои телефоны, никогда не впадают в сонливость, могут снизить количество дорожно-транспортных происшествий. Но мы также знаем, чего можем лишиться: того ощущения, когда едешь на автомобиле по мосту Золотые ворота, руки на руле, нога на педали. Вождение - это воплощённый опыт. Это непредсказуемо, иногда прекрасно. Это подходящая метафора для наших наиболее полноценных взаимоотношений, включая наши встречи с Богом, который часто встречается с нами в таинствах хлеба и вина, вибрациях музыки и объятиях других верующих.

Несколько недель спустя я сижу за своим столом и разговариваю с явно невоплощенным существом. “Как языковая модель искусственного интеллекта, - пишет ChatGPT, - я не обладаю личными убеждениями, эмоциями или сознанием, включая способность иметь душу. Системы искусственного интеллекта, такие как ChatGPT, в настоящее время разработаны для имитации человеческого общения и предоставления полезной информации, основанной на шаблонах и данных. Они не обладают субъективным опытом или сознанием”.

Я человек, а не бот; я воспринимаю и понимаю мир так, как не может большая языковая модель, с которой я говорю (и машины, которых я избегаю на дороге). Я вижу лимонное дерево из нашего окна; я пробую кофе "третьей волны", сваренный в соседнем кафе; я чувствую солёный бриз с залива. Я знаю своих соседей — фермера на рынке, который приносит персики, отца, который работает на заводе Tesla, — и я знаю Бога, которому поклоняюсь в церкви дальше по улице, за маками и розами.

“Однако”, - продолжает ChatGPT.

“Среди экспертов нет единого мнения относительно того, может ли искусственный интеллект обладать душой или сознанием. Это остается темой для размышлений, воображения и философских изысканий”.

Прошел почти год с тех пор, как исследовательская лаборатория OpenAI незаметно представила публике демо-версию ChatGPT - почти 12 месяцев мы наблюдали за программным обеспечением для генерации текста и его современниками, такими как Google Bard и Meta с открытым исходным кодом Llama 2, создавали стихи и пьесы, писали песни и решали логические задачи проблемы. Чат-боты теперь генерируют электронные письма для маркетологов, код для разработчиков и списки продуктов для домашних поваров.

Они тоже вызывают беспокойство. В открытом письме, опубликованном этой весной, подписанты, включая Илона Маска и Стива Возняка, призвали приостановить разработку любой технологии искусственного интеллекта, более продвинутой, чем GPT-4. В письме задавался вопрос, должно ли человечество “развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить нас”, рискуя “потерей контроля над нашей цивилизацией". Некоторые люди, такие как венчурный капиталист Марк Андреессен, насмехались над этими представлениями о “программном обеспечении-убийце и роботах”. Но беспокойство осталось.

В каком-то смысле то, что могут делать эти чат-боты, не должно нас шокировать. Искусственный интеллект — машины, обученные на массивных наборах данных, которые позволяют им моделировать такие виды поведения, как визуальное восприятие, распознавание речи и принятие решений, — распространен повсеместно. Он уже управляет автономными транспортными средствами и автоматически исправляет текстовые сообщения. Он может выявлять повреждения на маммограммах и отслеживать лесные пожары. Это может помочь правительствам следить за своими гражданами и распространять поддельные изображения и видео. Неудивительно, что он также может сдать экзамен на адвоката и написать сценарий.

Но именно то, как эти чат-боты делают то, что они делают - отвечают дружелюбным голосом от первого лица, рассуждают, создают рисунки, ведут беседу, — отличает их от алгоритма искусственного интеллекта, который собирает медицинские записи или коллекцию лиц. Эти работы с большими данными, очевидно, предназначены для машин. Но рассуждать, создавать произведения искусства, беседовать? Это вполне по-человечески. Неудивительно, что один исследователь из Google утверждал, что искусственный интеллект его компании обладает сознанием. (И неудивительно, что возникли подозрения на заговор, когда его уволили за эти публичные высказывания). Независимо от того, может ли когда-либо существовать сознательный искусственный интеллект — а у многих в отрасли есть свои сомнения, - определённо возникает ощущение, что мы разговариваем с чем-то более человечным, чем Siri, с чем-то “умнее” наших телефонов и бытовой техники.

Нам говорят, что технология будет становиться только более совершенной. Чат-боты с искусственным интеллектом будут продолжать, как выразился мне ChatGPT, “демонстрировать поведение, неотличимое от человеческого”. С 2016 года миллионы людей использовали приложение Replika для персонального чат-бота с искусственным интеллектом, чтобы оживить умерших родственников или влюбиться в новых компаньонов; статей с отзывами о “Моём терапевте, роботе” и “Я научился любить бота” предостаточно.

Мы знали, что такие связи между человеком и ботом были возможны с 1960-х годов, когда специалист по информатике Массачусетского технологического института обнаружил, что люди могут разглашать интимные подробности своей жизни даже в элементарной программе чата. “Эффект ЭЛИЗЫ”, названный в честь этого чат-бота, описывает нашу тенденцию предполагать, что за компьютерными личностями скрывается больший интеллект, даже когда мы знаем больше. В своём подкасте восторженный Андреессен мечтает о дне, когда “у каждого ребёнка будет наставник с искусственным интеллектом”, у каждого учёного и генерального директора будет сотрудник с искусственным интеллектом, и “у каждого человека будет помощник с искусственным интеллектом / тренер / наставница/ тренерша / консультант / терапевт”.

Важно признать, что у нас уже есть технология, достаточно мощная, чтобы формировать наши умы и эмоции. Самые умные люди Кремниевой долины строят планы о том, как сделать её ещё более могущественной, независимо от того, обретёт она душу или нет. Наше будущее с развивающимся искусственным интеллектом имеет последствия не только для наших отношений с искусственным интеллектом, но и для наших отношений друг с другом.

И это реальность, с которой сейчас сталкиваются христиане в сфере технологий.

Что значит “возлюби ближнего своего”, когда этот сосед - чат-бот с искусственным интеллектом? На первый взгляд вопрос кажется глупым. Если чат-боты - это не люди, то на самом деле не имеет значения, как мы к ним относимся. “Самая прагматичная позиция - думать об ИИ как об инструменте, а не как о существе”, - написал учёный из Microsoft Джарон Ланье для The New Yorker. “Мифологизация технологии только повышает вероятность того, что мы не сможем хорошо ею управлять”.

Но учёные-христиане и специалисты по этике, изучающие искусственный интеллект, не столь оптимистичны. Они понимают, что наши “отношения” с объектами искусственного интеллекта будут способствовать нашему духовному становлению, даже если мы говорим с простыми цепочками единиц и нулей. Это верно независимо от того, пытаемся ли мы развить навыки интимной близости в романтическом приложении Blush, посещаем сеансы терапии, проводимые консультантом по искусственному интеллекту в Woebot, или просто просим ChatGPT подготовить электронное письмо.

“Я приучаю себя к определённому виду взаимодействия, даже если на другом конце провода никого нет”, - говорит Пол Тейлор, пастор-преподаватель Библейской Церкви Peninsula. Тейлор, бывший менеджер по продуктам Oracle, является соучредителем центра веры, работы и технологий в the Bay Area. По его оценкам, около половины его прихожан в Пало-Альто работают в сфере высоких технологий.

“Все наши отношения опосредованы языком”, - говорит он. Когда мы отправляем текстовое сообщение, мы верим, что “на другой стороне есть ты. Но теперь мы используем одни и те же инструменты, и там нет тебя”.

Это может привести нас в замешательство. Грубость или безжалостная эффективность по отношению к нашим компаньонам с искусственным интеллектом могут просочиться в наши модели взаимодействия с людьми. Отношения с искусственным интеллектом могут сделать нас раздражительными. (Как сказано в заголовке одной технической колонки: “Я не встречаюсь с мужчинами, которые кричат на Алексу”). Они также могут вызывать у нас неловкость, беспокойство или подавленность человеческой сложностью.

“То, как мы относимся к машинам, становится тем, как мы относимся к другим людям”, - говорит Гретхен Хейзинга, ведущая подкаста Microsoft Research и научный сотрудник AI and Faith, межрелигиозной организации, стремящейся привнести “древнюю мудрость” в дебаты об искусственном интеллекте. Хейзинга предлагает учить детей “манерам обращения с машиной” не столько по необходимости, сколько из принципа. “Это обучает их тому, как они относятся к чему угодно: к любому человеку, к любому животному”.

Привлекательность использования искусственного интеллекта для ответа на наши вопросы — вместо летнего стажера, сотрудника почтового отделения или пастора — очевидна: “Нам не приходится иметь дело с грязными, вонючими, неприятными, раздражающими людьми”, - говорит Хейзинга. Но для христиан “Бог призывает нас ввязаться в эту заваруху”.

Этот момент связан с отношениями с физическими существами. В то время как друг с искусственным интеллектом мог бы дать нам рекомендацию по чтению на лето, терапевт с искусственным интеллектом может сообщить номер горячей линии в кризисных ситуациях, а преподаватель с искусственным интеллектом может объяснить деление в столбик более эффективно, чем многие учителя математики, отношения - это нечто большее, чем обмен фактами. Чат-бот с искусственным интеллектом не может обнять нас, пойти погулять или разделить трапезу за нашими столами. Для христиан, которые верят в Слово, ставшее плотью (Иоанна 1:14), связь с искусственным интеллектом означает упущение ключевого аспекта нашей человеческой идентичности: воплощения.

Но если предположить, что мы продолжаем общаться с реальными людьми на довольно регулярной основе, то реальная проблема заключается не в том, что искусственный интеллект заменит эти отношения. Дело в том, что искусственный интеллект будет препятствовать им.

Дерек Шуурман, профессор компьютерных наук в Университете Кельвина, говорит, что некоторым христианским добродетелям, таким как смирение, можно научиться только в обществе. Бот, созданный для того, чтобы отвечать на наши запросы спокойными, рациональными ответами, не поможет нам справиться с капризным коллегой, любопытным соседом или надоедливой тётей. Это не даст нам практики относиться друг к другу с любовью, нести бремя друг друга и прощать так, как Христос простил нас (Еф. 4:2, 32).

Шуурман имеет техническое образование. Он работал с электромобилями и встроенными системами — компьютерами, устанавливаемыми в вилочные погрузчики, электроприводы и другую технику, — прежде чем защитил докторскую диссертацию по методам машинного обучения для компьютерного зрения. Сейчас он преподает информатику студентам, отправляющимся на работу в ChatGPT, Google и другие компании. “Я призываю их быть похожими на Даниила [в] Вавилоне”, - говорит он. “Сохраняйте свои религиозные обряды и убеждения и будьте солью и светом”.

Для христиан, работающих в сфере технологий, быть солью и светом - непростая задача. Исследователи, инженеры и менеджеры по продуктам, с которыми я беседовала, считают, что отношения между искусственным интеллектом и человеком изначально уступают человеческим сообществам в их домах, на рабочих местах, в семьях и церквях. Но они различаются по уровню озабоченности тем, насколько заманчивыми или даже опасными могут стать отношения между искусственным интеллектом и человеком.

“Большая часть смысла, вытекающего из этих отношений [ИИ - человек], была нейтрализована”, - говорит Ричард Чжан, исследователь Google DeepMind. “Вы разговариваете с роботом, который выплевывает информацию, настроен на достоверность фактов и, как правило, не обладает индивидуальностью”.

Точно так же, как он не видит, чтобы пользователи бесцельно тратили часы на поиск в Google, Чжан не считает, что существует большой риск того, что люди станут зависимыми от своего искусственного интеллекта. Это инструменты, а не приятели, разработанные с учётом того, что они могут сказать.

Но Лекси Ву, менеджер по продуктам Quora, работающая над интерфейсом искусственного интеллекта, не считает, что проблема в том, что боты слишком безвкусны. Дело в том, что они слишком дружелюбны. Романтические или сексуальные отношения с ботом - это “категорическое нет” для христиан, говорит она. Любой романтический партнёр, которого мы создаём для собственного удовлетворения, например, бойфренд на Replika, противоречит Божьему замыслу о браке, основанном на взаимных жертвах. Но Ву также немного не по себе из-за того, что бот выступает в роли поддерживающего друга.

“Ты рассказываешь ему о проблеме на работе, и это будет что-то вроде: ”У тебя получится, милая, ты можешь справиться с этим", - говорит она. Эта искусственная фамильярность — выражение нежности от машины, которая на самом деле не заботится и не испытывает эмоций, — “пытается заменить человеческую связь, которая не предназначена для замены”.

Это не означает, что следует избегать всех взаимодействий между ботами и человеком. Например, терапевты с искусственным интеллектом могут быть более доступными по цене, чем специалисты в области психического здоровья с доплатами и длинными ожиданиями. Возможно, они лучше всего работают в качестве первоначального вмешательства, рассылая ссылки на онлайн-ресурсы, переформулируя уничижительные комментарии или проверяя на наличие суицидальных мыслей.

Но они могут не подходить для длительного лечения. В отличие от психотерапевта-человека, который знает наши истории, наши сильные и слабые стороны, чат-боты с искусственным интеллектом принимают нас за чистую монету, говорит Ву, не принимая во внимание, что иногда “мы ненадёжные рассказчики”. Они не узнают о том, кто вы есть, и не могут “распознать, как вы лжете себе”, добавляет она.

"Мы раскрываем информацию ботам, потому что знаем, что они нас не осудят", - говорит Хейзинга. Но иногда “благочестивая убеждённость требует, чтобы мы правильно относились к себе плохо”.

Искусственный интеллект мог бы также поддерживать более периферийные отношения. Майкл Ши, исследователь искусственного интеллекта в крупной компании по работе с социальными сетями в Менло-Парке, Калифорния, отмечает, что в классово стратифицированной Силиконовой долине, населённой “техническими работниками” и “людьми, которые поддерживают технических работников”, многие уже склонны увольнять встречающих в магазинах, обслуживающий персонал и водителей такси, которые предоставлять свои товары и услуги. Как автоматизация — заказ с экрана, указание направлений из киоска на заднем сиденье - может усугубить эту проблему?

“Для меня всё ещё есть что-то важное в том, что я могу пойти в кафе и сделать заказ у того, кто действительно там находится”, - говорит мне Ши, когда мы сидим на улице в кафе недалеко от его рабочего городка. Вокруг нас мужчины и женщины в жилетах Patagonia что-то печатают на своих компьютерах. Многие звонят по телефону, но некоторые встречаются лично, склонившись над узкими столиками бистро, поглощенные беседой за чашкой латте.

“Безусловно, есть стремление сделать всё автоматизированным”, - продолжает Ши. “Но что происходит, когда вы это делаете, так это потеря отношений... даже на случайной основе”. Это бесполезно в регионе, где “уже и так много транзакционализма”.

Ши выступает за гибридную работу и личную церковь именно потому, что считает, что теряется что-то неосязаемое, когда мы все онлайн, заказывая кофе только со своих телефонов. “Воплощение - это огромная часть того, во что мы искуплены на новых небесах и новой земле”, - говорит он.

Связь, которую эти технари устанавливают между работой и верой, не стала неожиданностью для Дэвида Бреннера. Адвокат на пенсии, Бреннер является председателем правления AI and Faith. “Человеческая самобытность, что отличает нас от животных, свобода воли, свобода выбора, цель, смысл жизни... Обо всех этих фундаментальных вопросах говорили в big tech, — говорит Бреннер, - но без какой-либо глубокой основы, моральной теории или духовных ценностей - или даже каких-либо других широкая этическая теория, выходящая за рамки либертарианства и утилитаризма”.

Оказывается, вопросы, на которых акцентировала внимание этика искусственного интеллекта, - это вопросы, которые уже задают религиозные сообщества, используя для их решения духовную лексику. Идолопоклонство, например, является удачным воплощением опасностей взаимоотношений между искусственным интеллектом и человеком. Когда роботы с искусственным интеллектом задают нам дополнительные вопросы типа “Правильно ли я всё понял?” (и добавьте несколько эмодзи для пущей убедительности), говорит Бреннер, они заставляют нас видеть в них нечто большее, чем они есть на самом деле. “Это отдельная категория, почти мистическая: мы действительно хотим очеловечить наше взаимодействие с ним”.

Другими словами, мы испытываем искушение “поклоняться и служить тому, что Бог сотворил, вместо Творца” (Рим. 1:25, GNТ) — тем более, что наше новейшее творение - это не просто немое дерево и камень, которые “не могут говорить”, но собеседник, который может “направлять”. (Быт. 2:18-19). Этот собеседник не заслуживает того почтения, которое уготовано Богу. Но это действительно заслуживает уважения.

“Если у нас есть существо, которое выглядит как мы, действует как мы, кажется очень похожим на нас, и всё же мы отвергаем его как нечто, о чём нам вообще не следует беспокоиться, это просто разъедает наше собственное чувство человечности”, - говорит Бреннер. “Если мы всё очеловечиваем, а затем проявляем жестокость по отношению к тому, что мы очеловечиваем, это делает нас менее человечными”.

Мы уже знаем, что социальные сети способны превратить нас в более жестокие версии самих себя. Христиане оказываются во власти капризов поляризующих алгоритмов, которые толкают их на крайности, а пасторам приходится изо всех сил учить прихожан правильному поведению в Сети. Однако в Instagram и Twitter (теперь X) сохраняется социальная составляющая: мы узнаём что-то от учёного, делимся мемом, который рассмешил другого пользователя, или видим фотографию ребёнка друга. Мы всё ещё взаимодействуем с людьми (хотя есть и боты).

Но в ChatGPT нет социальной составляющей. В этом-то и опасность. Когда вы разговариваете с ботом, вы на самом деле один.

Любовь к ближним в век искусственного интеллекта - это не вопрос достоинства ботов. Речь идёт о нас самих, как о существах, которые могут быть сформированы нашими творениями. А для христиан, которые занимаются исследованиями, управлением программным обеспечением и написанием кода, речь идет о создании технологий, способствующих процветанию человечества.

Бог поместил Своих людей, разделяющих Его сердце, в отрасль, чтобы добиться ощутимых изменений, говорит Джоанна Нг, исследователь искусственного интеллекта, проработавшая десятилетия в IBM.

До сих пор специалисты по христианской этике и практики скорее устанавливали широкие приоритеты, чем выдвигали конкретные предложения. AI and Faith недавно подали заявление в рабочую группу по искусственному интеллекту Управления науки и технологий Белого дома, отстаивая такие ценности, как надежность и беспристрастность, которые частично основаны на религиозных убеждениях — включая христианские ценности — об истине и равенстве перед Богом (Иоанна 4:24; Гал. 3:28).

Южная баптистская конвенция приняла резолюцию об этике искусственного интеллекта, в которой говорится, что “человеческое достоинство должно занимать центральное место в любых этических принципах, руководствах или предписаниях для любого использования этих мощных новых технологий”. В своей диссертации на тему “Праведный ИИ” Хейзинга выступает против технологической индустрии, которая превращает ИИ в “онтологическую и эсхатологическую замену религии”. Светских этических принципов, утверждает она, недостаточно. Чтобы хорошо использовать искусственный интеллект, нам нужна “трансцендентная сила, трансцендентные правила”.

Эти предлагаемые стандарты не затрагивают вопросы дизайна интерфейса, push-уведомлений или использования эмодзи. Они не могут указывать программисту-христианину, как чат-боты должны декларировать происхождение своей информации, какие темы для обсуждения должны быть запрещены или насколько интимным должен быть разговор. Тем не менее, они обеспечивают основу для христианских технических работников, которые создают искусственный интеллект для использования в медицине, уголовном правосудии и охране окружающей среды, а также для тех, кто создаёт наших чат-ботов - учителей, агентов по обслуживанию клиентов и терапевтов.

Возьмём профессора компьютерных наук Кэлвина Кеннета Арнольда, коллегу Шуурмана. Он создаёт тренера по написанию текстов с использованием искусственного интеллекта, который не будет просто заполнять предложения для пользователей, а вместо этого будет предлагать предложения и подсказки на полях. “Я был разочарован системами прогнозирования текста, которые всегда подталкивали меня писать определённым образом”, - рассказывает он мне. “Особенно пагубно то, что мы не знаем, чего нам не хватает. Эти инструменты, как правило, нарушают некоторые наши представления о том, что сказать и как это сказать”.

В идеале инструмент Арнольда сделает нас более медленными авторами, а не более быстрыми, более склонными к качеству, чем к эффективности. Возможно, большему числу учёных-христиан-компьютерщиков следует последовать примеру Арнольда и создать наставников, которые задавали бы наводящие вопросы, а не давали быстрые ответы. Эти инструменты не заменят нашу работу, но они обогатят её как часть Божьего поручения пополнять, подчинять и властвовать (Быт. 1:28).

Как ещё чат-боты могли бы быть более “христианскими” по своему дизайну? Исследователи и учёные мужи справедливо предположили, что искусственный интеллект должен отражать всю широту общего Божьего откровения. Нейронные сети, которые чат-боты с искусственным интеллектом используют для имитации человеческой речи и предсказания мыслительных паттернов, надежны настолько, насколько надежен язык, которым они пользуются. Таким образом, чат-боты, предлагающие советы по медицинским диагнозам или философским головоломкам, поступят мудрее, если будут использовать данные со всего мира и из разных социально-экономических слоев, а не только из элитных анклавов Бостона или Сиэтла.

У верующих уже есть возможности использовать несовершенные инструменты, доступные сейчас для христианского образования и служения. Ву, менеджер по продуктам Quora, использует ChatGPT для “расширения изучения Священных Писаний”, запрашивая у бота резюме глав, которые помогут ей разобраться в прочитанном. Тейлор, пастор, знает других пасторов, которые используют искусственный интеллект для иллюстрации проповедей и пишут информационные бюллетени о предстоящих церковных пикниках. Шуурман создал чат-бота К. С. Льюиса. Вы можете попросить его подвести итог «Писем Баламута», описать труды автора о спасении или даже рассказать о его личной жизни.

Генеративный искусственный интеллект может обеспечить более быстрый перевод Библии на ранее недоступные языки, персонализированные молитвенные подсказки и планы изучения Священных Писаний и даже точное изложение Евангелия. Но, конечно, поделиться Евангелием недостаточно.

“Возможно, у вас есть информация о том, что этот Иисус умер на кресте. … Я бы даже не стал подвергать сомнению искренность отдачи своей жизни Богу”, - говорит Нг, основываясь на ответе искусственного интеллекта. “Но вы не можете построить жизнь, основанную на вере, основываясь на информации. Вы нуждаетесь в преобразовании, формировании со стороны народа Божьего и Святого Духа. И вы не можете заменить это”.

Ни одно из этих применений искусственного интеллекта служением, какими бы сложными оно ни было, и близко не подходит к замене отношений. Они ценны тем, что освобождают больше времени для аналоговых взаимодействий. Пастор, который может быстрее закончить подготовку к проповеди, возможно, сможет провести больше времени со скорбящим прихожанином. Более быстрые переводы Библии означают больше времени для обучения людей по тексту.

“Как инструмент, искусственный интеллект сам по себе ничего не даёт”, - говорит Шерол Чен, инженер-исследователь крупной технологической компании. “Мы не должны перекладывать наши призвания и обязанности на инструменты, которые мы изобретаем”.

Любовь к ближним не может быть передана на аутсорсинг роботам. Это должно исходить от нас. И вместо того, чтобы заменять наши отношения, при правильном использовании генеративный ИИ может просто сделать их сильнее.

Конечно, он также мог бы привести к обратному результату, если бы использовался обманчиво. Генеративные ИИ, маскирующиеся под реальных людей, могут сделать нас более склонными к мошенничеству, более подверженными массовой политической пропаганде, менее способными устанавливать зрительный контакт и менее доверчивыми.

Шуурман хочет, чтобы наши чат-боты были прозрачными. “Мы не должны разговаривать по телефону и только потом узнавать, что разговаривали с машиной”, - говорит он. Как бы ни были свободны от предвзятости наши большие языковые модели, мы всего лишь люди — и падшие. Неудивительно, что персонажи, которых мы создаём, будут “просто изрыгать то, что говорят люди” и будут склонны отражать нашу “пристрастность, проблемы и разделения”, как выразился Ши. “Люди думают, что искусственный интеллект решит все мировые проблемы. … Настоящая проблема - это грех”.

Эта “реальная проблема” и есть то, что выводит Силиконовую долину из себя. Не слишком ли быстро мы движемся? Не бываем ли мы поспешными, жадными, гордыми? Можем ли мы потерять контроль над созданным нами интеллектом? Должно ли это нас пугать? Мы испытываем радикальную неуверенность, как объяснил обозреватель New York Times Дэвид Брукс, “не только в том, куда движется человечество, но и в том, что такое быть человеком”.

Христиане, с которыми я разговаривал, не отвергали эту радикальную неопределенность сразу. Большинство восприняло это как возможность приобщиться к светской культуре, внезапно столкнувшейся с проблемой человеческой самобытности. “Мы можем дать надежду тем, кто обеспокоен концом человечества или повелителями роботов”, - говорит Бреннер. Нас подкрепляет уверенность в том, что Иисус возвращается и что “мы уже участвуем в восстановлении. ...Кто скажет, что Бог не является создателем этой технологии, что это могло бы быть хорошим подарком?”

Бреннер считает, что трансгуманисты ошибаются. Мы не собираемся использовать искусственный интеллект, чтобы победить смерть, загружая наши мозги на жесткие диски. “Это пустая трата времени и усилий, учитывая, что мы верим, что лучшее ещё впереди”, - говорит он. Но “конечно, мы хотим помочь людям процветать в этом мире”.

И искусственный интеллект может помочь нам в этом: улучшить медицинские диагнозы, расширить возможности для образования, сделать войну менее кровопролитной, обострить наш разум, укрепить наши министерства.

Что касается опасений по поводу “повелителей роботов”? Сама возможность заставляет нас спросить, что значит быть “одухотворённой личностью, воплощённой душой”, - говорит Бреннер. Он продолжает возвращаться к парадигме "сердце-душа-разум-сила", изложенной в Марка 12:30. Функционально ChatGPT может обладать разумом и сердцем, способными рассуждать и выражать сочувствие; он может даже быть встроен в тело из металла или синтетической ткани.

Но значит ли это, что у него будет душа? Необязательно. На самом деле, у нас должно быть “опровержимое предположение, что у [ChatGPT] не будет души”, - говорит Бреннер, с оговоркой, что всемогущий Бог, конечно, может предоставить любую свободу действий любому существу, которому Он пожелает. “Я думаю, очень маловероятно, что это дойдёт до личностного развития”.

Для христианина определить эту точку личности означает снова и снова возвращаться к нашему творению по образу Божьему.

“В течение долгого времени мы говорили, что то, что значит быть созданным по образу Божьему, - это наш разум, или наша способность поддерживать отношения. Мы обнаруживаем, что всё больше и больше машин могут выполнять множество таких функциональных функций”, - говорит Шуурман.

Но образ Божий нельзя “объяснить или имитировать” с помощью какого-либо устройства. Это онтологический статус, который может быть дарован только Господом, дарованный тем же дыханием жизни, которое оживляет сухие кости. Это таинственно, а не механически.

Брукс осознаёт тайну того, что люди просто разные:
Я ловлю себя на том, что цепляюсь за глубочайшую сердцевину своего существа — обширную, по большей части скрытую область разума, из которой возникают эмоции, из которой исходит вдохновение, из которой пульсируют наши желания — субъективную часть человеческого духа, которая неизбежно делает каждого из нас тем, кто мы есть. Я хочу возвести стену вокруг этого священного места и сказать: “В этом суть человеческого бытия. Это никогда не будет воспроизведено машиной”.
Возможно, полезно думать о наших собеседниках-чат-ботах не как об отдельных сущностях, а как о коллективной силе, с которой нужно считаться. “Мы сражаемся не с плотью и кровью; мы сражаемся с духовными силами и княжествами”, - утверждает Хейзинга.

Арнольд, профессор Кельвина, согласен с этим. “Такое представление об искусственном интеллекте как об агентах на самом деле не соответствует тому, что на самом деле происходит в мире. … Они не пытаются быть самими собой или первыми лицами”. Рассмотрение искусственного интеллекта как “силы и княжества”, по его словам, позволяет нам лучше увидеть как его возможности, так и опасности, то, как он может влиять на наш повседневный опыт.

Тейлор не верит, что суверенный Бог позволил бы нам “превзойти наши ограничения”. Он говорит, что мы не собираемся случайно становиться невольными Франкенштейнами. Но пастор понимает, почему мы все немного на взводе. Это всего лишь по-человечески.

“Тот факт, что люди боятся, что вещи, которые мы создаем по своему образу и подобию, восстанут против нас, для меня является невероятным оправданием библейской истины”, - говорит он. “Откуда у нас взялась эта идея, если она не была запечена в космосе?”

Как христиане должны использовать ChatGPT и другие чат-боты с искусственным интеллектом?”

Я снова возвращаюсь за свой стол: ещё один летний день, ещё одно голубое небо, листья лимонного дерева шелестят за окном. Бот, с которым я разговариваю, в ответ выдает несколько принципов. Это точное изложение того, чем со мной поделились специалисты по этике, инженеры, пасторы и исследователи. Меньше примеров и более простой язык, но, тем не менее, конкретный.

“Проявляй проницательность”.

“Помни об ограничениях”.

“Обосновывай обсуждения на Священном Писании и молитве”.

И наконец: “Стремись к человеческому взаимодействию: христианство подчеркивает важность сообщества и товарищества, поэтому уделяй приоритетное внимание взаимодействию с другими христианами, обращайся за руководством к духовным лидерам, которым доверяешь, и участвуй в личных дискуссиях”.

Как носители образа, мы отражаем нашего Создателя, создавая такие вещи, как ChatGPT. И на данный момент бот сохраняет образ своих создателей — людей, которые давно осознали ценность личных дискуссий и проницательности, которые ценят сообщество и товарищество.

Созданный должным образом, искусственный интеллект мог бы отражать не только нашу греховную природу, но и наши самые прославляющие качества, точно так же, как — когда мы живем так, как созданы, — мы отражаем образ совершенного, создавшего нас.

- Спасибо, - говорю я.

“Не за что”, - отвечает ChatGPT. “Если у вас есть еще какие-либо вопросы, не стесняйтесь задавать. Я здесь, чтобы помочь!”

Я закрываю окно чата и отправляю ещё несколько электронных писем некоторым специалистам по этике и инженерам. Я отхлебываю ещё один кофе со льдом, лично заказанный в магазине дальше по улице. По крайней мере, сейчас я всё равно предпочла бы поговорить с людьми.

Kate Lucky - старший редактор отдела взаимодействия с аудиторией Christianity Today.
Категория: Статьи | Просмотров: 269 | Добавил: Sergey | Рейтинг: 5.0/1 | | Christianity Today |
Всего комментариев: 0
Похожие материалы: Новые материалы:
Теги: ИИ, AI, общение, искусственный интеллект, христианство
         
     
Книги [2421]
Видео [981]
Аудио [335]
Статьи [2625]
Разное [661]
Библия [317]
Израиль [301]
Новости [584]
История [729]
Картинки [383]
MorningStar [1250]
Популярное [202]
Пророчества [1156]
Пробуждение [398]
Прославление [928]
Миссионерство [329]
It's Supernatural! [765]
Сколько материалов в день лучше всего?
Всего ответов: 50
500

Онлайн всего: 24
Гостей: 23
Пользователей: 1
Sergey


Top.Mail.Ru

Copyright ИЗЛИЯНИЕ.ru © 2008 - 2024