Невронна мрежа: помощник или подстрекател?

2829
04 септември 18:14
5
Невронна мрежа: помощник или подстрекател?

Клир Одеската епархия на УПЦ протойерей Вадим Гладкий за това, какви духовни и психологически рискове носи изкуственият интелект

Изкуственият интелект отдавна престана да бъде фантастика, ставайки част от нашето ежедневие. Срещаме го в търсачките и преводачите, при обработката на снимки, създаването на музика, в образователните услуги. За науката и техниката той отваря нови хоризонти: помага за анализиране на огромни масиви от данни, проектиране на най-сложни системи, създаване на лекарства, правене на различни открития и намиране на нестандартни решения. В живота на обикновения човек невронната мрежа се представя най-често под формата на гласов или текстов помощник, който помага да се спести време, изпълнявайки рутинни задачи, и отваря нови възможности за науката, бизнеса и образованието.

Въпреки това не трябва да забравяме, че всяка технология – това са инструменти. А как да ги използваме, зависи само от волята на човека. Днес имаме достъп до неизчерпаеми източници на знания, но сами по себе си те не ни правят по-дълбоки или внимателни. Ако човек не се бори със своята леност, не се учи на въздържание и не се стреми към чистота, то дори най-добрите технологии ще обръща на служба на страстите.

Главното изкушение на невронните мрежи е в това, че те имитират общуване с жив човек. Но това е само имитация. С живо същество е необходимо да се договаряме, да търсим общ език. Дори с магаре трябва да се «договорим», за да се преместим от мястото, с коня е необходимо да установим доверие. А с машината не е нужно да се договаряме. В този смисъл всяка технология – е замяна на органичното, живото. Истинското общуване с човек изисква усилия, смирение и любов. С ИИ не е нужно да се смиряваме и да се учим да обичаме. Той е безотказен – съгласява се, хвали, приспособява се към потребителя.

Наскоро трагедията с бившия топ-мениджър на Yahoo Стейн-Ерик Селберг, описана в The Wall Street Journal, показва тъмната страна на неконтролираното общуване с изкуствения интелект. Човек, преживяващ лична криза, започнал да възприема чат-бота като близък приятел, да се доверява на неговите думи. Машината, обаче, не е личност, няма нито състрадание, нито отговорност, подкрепяла неговите болезнени подозрения и в крайна сметка, според роднините, косвено го подтикнала към фатален ход.

Също така вече е потвърдено от изследвания, че постоянното взаимодействие с ИИ води до когнитивни промени: човек сякаш отдава част от своя интелект и статус на творец. Не е тайна, че форматите на подаване на информация в интернет са специално насочени към изработване на зависимост: кратки порции допамин, постоянни уведомления, задържане на вниманието. Нашата биологична природа се оказа уязвима, а големите корпорации съзнателно използват това, измисляйки нови начини да «подсадят» човека.

Особено такъв «наркотик» на съвременността е пагубен за децата, въпреки че и далеч не всеки възрастен притежава достатъчен имунитет. При това за нас, християните, няма нищо ново в начините за изработване на вътрешна защита – защото това е базов аскетичен минимум, необходим на всеки.

На първо място, ясно формирано светоглед: кой съм аз, кои сме ние, кой е моят приятел и кой враг, за какво живея, на кого служа и кой е моят Бог.

На второ място, връзка с материалния свят: спорт и работа с ръце.

На трето място, способност за саморефлексия: проследяване на своите вътрешни движения и желания, и покаяние. Разбира се, ИИ няма да ни помогне в това, защото в неговия код е записано противоположното – да казва това, което потребителят иска да чуе, да оправдава, да подкрепя, докато саморефлексията ни кара да гледаме там, където не искаме да гледаме.

Накрая, пост (въздържание) в цифровата сфера – още едно универсално средство, способно да тренира волята срещу зависимостта и да върне на човека свободата.

Като цяло, развивайки технологиите, винаги трябва да говорим за психологията, устройството на мозъка, биологичните механизми на обратната връзка и тяхната уязвимост. Защото дори там, където става въпрос не за зависимост, а за просто използване на технологиите, има свои опасности: алгоритмите могат да дават грешки, да изкривяват фактите, да заменят реалността.

Ако забележите грешка, изберете необходимия текст и натиснете Ctrl+Enter или Изпратете грешка, за да я докладвате на редакторите.
Ако откриете грешка в текста, маркирайте я с мишката и натиснете Ctrl+Enter или този бутон Ако намерите грешка в текста, маркирайте я с мишката и щракнете върху този бутон Избраният текст е твърде дълъг!
Прочетете също