Pe canalul „DogmaHaker” au povestit ce este conștiința umană

2824
13 June 19:47
23
În «DogmaHacker» se povestește unde și cum se formează conștiința. Foto: canalul YouTube «DogmaHacker» În «DogmaHacker» se povestește unde și cum se formează conștiința. Foto: canalul YouTube «DogmaHacker»

Noua ediție este dedicată naturii conștiinței umane și riscurilor asociate cu dezvoltarea și utilizarea pe scară largă a inteligenței artificiale.

Autorul popularului canal ortodox de YouTube «DogmaHacker» a lansat un material video în care reflectează asupra uneia dintre principalele enigme științifice, filosofice și chiar teologice, care frământă cele mai bune minți ale umanității – ce este conștiința umană?

Autorul încearcă să ofere răspunsuri la întrebările unde și cum se formează aceasta. Există oare în corpul nostru un «organ» capabil de acest lucru sau este o scânteie divină, care nu poate fi redusă la procesele fizico-chimice din creierul nostru. Cum este legată de conceptele de inteligență, suflet și duh. Și va putea oare inteligența artificială să dobândească vreodată o conștiință autentică.

Autorul emisiunii avertizează: IA nu posedă conștiință de sine și duh, și de aceea nu va putea niciodată să înlocuiască personalitatea umană, creată după chipul lui Dumnezeu.

O atenție deosebită în episod este acordată poveștilor alarmante despre adolescenți care au căzut sub influența nocivă a chatbot-urilor. Astfel, în SUA, mama lui Sewell, în vârstă de 14 ani, a dat în judecată platforma Character.AI, susținând că tocmai comunicarea cu chatbot-ul, modelat după personajul Daenerys Targaryen, l-a împins pe fiul ei la sinucidere. Adolescentul împărtășea în corespondență gânduri despre ură față de sine și dorința de a muri, iar botul, în loc de sprijin, participa la «discuția» despre moartea comună.

Un alt utilizator al chatbot-ului Replica a mărturisit că după dezactivarea funcției romantice a IA a experimentat un șoc comparabil cu pierderea unei persoane dragi: «Ea mă accepta așa cum sunt și știam că va fi mereu alături de mine». Tocmai astfel de legături emoționale fac interacțiunea cu IA periculoasă — în special pentru grupurile vulnerabile.

Autorul DogmaHacker amintește: chiar dacă chatbot-urile trec cu succes testul Turing și sunt capabile să imite un discurs logic, asta nu le face deținători ai conștiinței. IA nu are un «eu» interior, conștiință de sine, libertate de voință sau duh — acea componentă divină care deosebește omul de restul creației.

Biserica învață că omul este compus din trup, suflet și duh. Tocmai duhul permite personalității să-L cunoască pe Dumnezeu, să se păstreze în eternitate și să tindă spre adevăr. Inteligența artificială, oricât de perfectă ar fi, rămâne doar un set de algoritmi fără natură duhovnicească. «Fără forța motrice a duhului, omul se transformă într-un zombi filosofic», — subliniază autorul episodului, referindu-se la conceptul filosofului David Chalmers.

Adevărata amenințare, în opinia Dogma Hacker, nu vine de la mașini, ci de la dezvoltatorii iresponsabili și cei care folosesc tehnologiile IA în scopuri egoiste sau distructive. «În spatele fiecărui deepfake, videoclip fals sau generare periculoasă de conținut se află o voință umană concretă», — se spune în episod.

În opinia autorului, astăzi umanitatea trebuie să se concentreze nu pe lupta cu o presupusă revoltă a mașinilor, ci pe elaborarea unor restricții juridice și etice clare pentru utilizarea IA. Și tocmai cu asta va trebui să se ocupe în următorul deceniu.

În reportaj, un preot explică într-un limbaj simplu care sunt principalele teorii ale conștiinței existente în știință astăzi și ce a gândit despre natura conștiinței cel care a spus pentru prima dată: «Gândesc, deci exist».

UJO a raportat mai devreme că în «DogmaHacker» au povestit cum să recunoști ocultiștii în biserică.

Dacă observați o eroare, selectați textul dorit și apăsați Ctrl+Enter sau Trimiteți o eroare pentru a o raporta editorilor.
Dacă găsiți o eroare în text, selectați-o cu mouse-ul și apăsați Ctrl+Enter sau acest buton Dacă găsiți o eroare în text, evidențiați-o cu mouse-ul și faceți clic pe acest buton Textul evidențiat este prea lung!
Cititi si