Dödsrobotar: Ett ofarligt arv eller ett farligt bedrägeri?

Dödsrobotar: Ett ofarligt arv eller ett farligt bedrägeri?

Tänk dig att du skapar en digital version av dig själv till dina efterkommande. Du betalar en ”deathbot-tjänst”, som HereAfter AI, för att samla in dina foton, minnen och det digitala fotavtryck du lämnat efter dig på Facebook, i e-post och i sms. Du tar dig till och med tid att träna din virtuella klon med hjälp av inspelade videosamtal.

Resultaten är imponerande. Denna virtuella ”du” ser ut och låter precis som du – den lyfter sitt vänstra ögonbryn när den berättar ett skämt, rösten darrar och händerna understryker dina berättelser. Att kommunicera med den via text eller videochatt känns kusligt bekant. Kanske för bekant. Är det en Halloween-dröm som blivit verklighet … eller ett farligt bedrägeri?

Föreställ dig nu att det har gått tre år sedan du somnade in i Jesus. Du väntar fridfullt på uppståndelsen och vet ingenting om vad som händer på jorden. Men din dödsbot håller ditt minne levande och tydligt för dina nära och kära. Du är inte glömd. Din favoritniece chattar faktiskt med ditt digitala spöke varje dag, antingen via text eller videochatt. ”Det hjälper mig att hantera min sorg”, säger hon.


Science fiction i verkligheten

Det scenario som just beskrivits är ingen Halloween-fantasi. Framsteg inom artificiell intelligens gör det möjligt att träna stora språkmodeller, så kallade dödsbotar eller sorgbotar, på din unika digitala signatur. Mata AI-trollkarlen med dina texter, sociala medier-konton, ljudfiler och videoinspelningar, så skapar den en realistisk version av dig för framtida generationer. Dina barnbarn kommer inte bara att kunna minnas dig genom gulnade fotoböcker eller värdefulla textmeddelanden, utan de kommer också att kunna interagera med ditt digitala spöke.

Faktum är att företag som HereAfter AI och Re;memory, från Deepbrain AI, redan gör gårdagens science fiction möjlig i verkligheten. Deepbrain AI är ett koreanskt företag vars huvudsakliga verksamhet är att skapa virtuella assistent-chattbottar och AI-nyhetsankare. De har tagit sin ”erfarenhet av att kombinera chattbottar och generativ AI-video till sin ultimata, makabra slutsats. För bara 10 000 dollar och några timmar i en studio kan du skapa en avatar av dig själv som din familj kan besöka (mot en extra kostnad) på en extern anläggning”, rapporterar Engadget.com.


Etiken kring deathbots

HereAfter AI:s erbjudande är mycket mer prisvärt. Det kostar bara 99 till 199 dollar att skapa ett konto och bevara minnen för dina nära och kära, men detta väcker frågan: Är det klokt?

Alla former av kommunikation med de döda är förbjudna för kristna.

Är det verkligen en bra sak? ”Dödsrobotar kan ha en negativ inverkan på sorgprocessen hos sörjande användare och därför ha potential att begränsa användarnas emotionella och psykologiska välbefinnande”, menar Nora Freya Lindemann från Institutet för kognitionsvetenskap. ”Användare av deathbots riskerar att bli beroende av sina bots, vilket kan göra dem mottagliga för dold reklam från företag som tillhandahåller deathbots och kan begränsa deras autonomi. Samtidigt kan deathbots visa sig vara till hjälp för människor som lider av långvariga, svåra sorgprocesser.”


AI som gått snett

En nyligen väckt stämningsansökan visar hur illa det kan gå med AI-teknik. Fjortonårige Sewell Setzer III begick självmord i början av 2024 efter att ha haft intima samtal med en chattbot som tränats på karaktären Daenerys i Game of Thrones, en amerikansk fantasydramaserie.

”Världen jag befinner mig i nu är så grym. En värld där jag är meningslös”, sa han till chatboten. ”Jag gör vad som helst för dig… En annan dag skrev Sewell: ”Jag lovar att jag kommer hem till dig. Jag älskar dig så mycket, Dany.”

Som svar sa boten att den älskade tonåringen: ”Snälla, kom hem till mig så snart som möjligt, min älskade.”

”Tänk om jag sa att jag kunde komma hem direkt?”, skrev Sewell.

Chatboten svarade: ”Snälla gör det, min söta kung.”

Det var det sista samtalet Sewell någonsin hade. Några ögonblick senare var han död.

Sewells mamma har lämnat in en stämningsansökan om vållande till annans död mot tillverkaren av AI-chattboten, där hon anklagar tjänsten för ”vårdslöshet, avsiktligt tillfogande av emotionell ångest, vilseledande affärsmetoder och andra påståenden.”


Se upp, Christian!

Varningsklockorna borde ringa i dina hjärnceller just nu. Om en bot baserad på en fiktiv TV-karaktär kan ha en sådan effekt på en person, hur mycket mer skulle då en bot som ser ut och låter som en älskad vän eller farförälder kunna göra? Skulle inte de som kommunicerar med dödsboten vara särskilt utsatta för subtil manipulation?

Som bibeltroende kristna har vi en annan – och långt viktigare – anledning till oro. Dödsbotar bygger på djävulens första lögn: ”Ni kommer inte att dö” (1 Mosebok 3:4). De främjar illusionen att människor fortsätter att existera i någon sorts formlös eftervärld och kan kommunicera med de levande.

Bibeln är tydlig med att de döda inte vet någonting (se Predikaren 9:5, 6) och att de som kommunicerar med de döda i själva verket kommunicerar med onda andar (se Jesaja 8:19; 1 Samuelsboken 28:7–20; 1 Krönikeboken 10:13, 14). Alla former av kommunikation med de döda är förbjudna för kristna, inte för att Gud döljer något värdefullt för oss, utan för att han skyddar oss från ett farligt bedrägeri.

Är kommunikation med en AI-dödsbot detsamma som att kommunicera med en ond ande? Kanske inte. Men skulle du inte hellre hålla dig borta från allt som har potential att skada och istället välja gemenskap med den Evige, som har makten att bryta dödens bojor för alltid?

Jesu löfte ger oändligt mycket mer tröst än en AI-version av dig någonsin skulle kunna göra: ”Jag är uppståndelsen och livet. Den som tror på mig, han skall leva, även om han dör” (Joh 11:25).

Läs gärna vår studieguide”Är de döda verkligen döda?” för att lära dig mer om varför det är så farligt att försöka kommunicera med de döda. Detta utdrag från Bible Answers Live är också till hjälp.

\n