"Mam, ik heb het verprutst. Help me...!” hoorde Jennifer haar 15-jarige dochter Brie angstig schreeuwen op de achtergrond terwijl een onbekende man dreigde Brie vreselijke dingen aan te doen als Jennifer niet snel losgeld zou overmaken of als de politie er bij zou worden gehaald.
Je leest het tweede artikel in de serie Robot en Relaties. Hoe zit het eigenlijk met de A.I. ontwikkelingen zoals ChatGPT? Is het een hype? Of is het een technische revolutie met enorme gevolgen? Welke invloed heeft A.I. op onze relaties en op onze beleving van relaties?
Een serie artikelen met actuele inzichten, praktijkvoorbeelden en een kijkje nét onder de oppervlakte van de hype. Willen we eigenlijk wel een samenleving waarin computers niet langer meer hulpmiddelen zijn, maar wij ons verregaand aanpassen aan die computers?...
Denk je eens even in hoe Jennifer zich op dat moment voelde. Wat een traumatiserend moment! Haar dochter Brie was de dag er voor vertrokken op schoolkamp naar een ski-gebied. Totaal onverwacht komt dit telefoontje binnen van een onbekend nummer. De beller vertelt dat hij Brie heeft en overtuigender dan dat: ze hoort haar dochter in angst schreeuwen. Als ze de man vertelt dat ze niet direct 1 miljoen dollar kan betalen, verlaagt hij het bedrag tot 50.000$. Even later belt haar man hun dochter en .... krijgt haar gewoon aan de lijn. Met haar is gelukkig niets aan de hand.
De nep-ontvoerder liet zijn ontvoering echt lijken door gebruik te maken van software waarmee een stem 'gekloond' kan worden. Op basis van een paar seconden opnamemateriaal (in dit geval was een stukje uit een schoolvideo waarin Brie te horen was) is het mogelijk de software alles te laten zeggen wat voor luisteraars bedrieglijk echt klinkt als de stem van die persoon.
Met software zoals voice.ai, resemble.ai en descript kun je tekst omzetten in spraak die klinkt als je eigen stem of (dus...) andermans stem.
Hier beluister je een klein 'voorbeeld' van een geluidsopname van Donald Trump toen hij boos was omdat iedereen de blog TussenIkenJij leest in plaats van aandacht aan hem te geven.
Wat is (nog) waar?
Zonet vroeg ik je, je in te denken hoe Jennifer zich had gevoeld toen ze het dreigtelefoontje kreeg. In werkelijkheid was er niets aan de hand, maar in haar beleefde werkelijkheid kwam een enorme nachtmerrie tot leven. Ook deze nep-situatie veroorzaakt trauma. Ons brein is zo gemaakt dat het qua verwerking van wat we beleven deels zo werkt dat het niet uitmaakt of iets wérkelijk gebeurt of dat we het ons indenken. Logisch dus dat er forse psychische schade ontstaat bij Jennifer, maar wellicht ook bij haar dochter en anderen die dit ingrijpende verhaal meemaakten.
Je voordoen als iemand anders is niet nieuw. Mogelijk ken je de duizenden jaren oude geschiedenis van Jakob die zijn blinde vader Isaäk bedriegt door zich voor te doen als zijn broer Esau en zo de erfenis als eerstgeboren zoon op te strijken (hier te lezen). Het schaadt het vertrouwen tussen mensen enorm. Wat nieuw is aan de technische mogelijkheden vandaag de dag, is dat er steeds meer manieren komen waarop de identiteit van iemand (deels) wordt nagebootst of veranderd. Een paar voorbeelden:
Een fotofilter in Instagram gebruiken waardoor je uiterlijk meer wordt zoals je wilt;
Opleidingen noemen op je LinkedIN profiel waar je alleen ooit op een open dag bent geweest om zo 'gestudeerder' over te komen;
Jezelf fotoshoppen in een foto met een minister om de indruk te wekken dat je op hoog niveau contacten hebt;
Je bedrijfslogo verwerken in foto's van een aantal gebouwen in diverse landen in Europa om te doen alsof je daar vestigingen hebt, terwijl je daar in het echt alleen een gedeelde brievenbus hebt;
Sowieso strafbaar: een appje sturen alsof je iemands zoon/dochter bent met 'Hey mam, dit is mijn nieuwe nummer, ik heb wat geld nodig want m'n toestel was gestolen.'
Het onderscheid tussen feit en fictie is steeds moeilijker te vinden. De mens in 2023 heeft onvoorstelbaar veel informatie tot zijn beschikking. En tegelijk is de zoektocht naar (de) Waarheid steeds complexer. Het is zelfs zo bizar dat Elon Musk (..) bezig is met een initiatief om een A.I. systeem te laten bouwen dat TruthGPT heet en dat de gebruiker de mogelijkheid moet bieden om dé waarheid te ontdekken. Musk zegt dat TruthGPT gebruikt wordt om "de aard van het universum te begrijpen." Musk is trouwens niet bang voor een bedreiging door A.I. In tegendeel:
"Als een A.I. systeem het universum begrijpt, zal hij de mens waarschijnlijk niet vernietigen omdat we een interessant deel van het universum zijn."
Bron: techcrunch.
Stelt het jou al gerust...?
Volgende keer: groepsgesprek in ChatGPT
In het volgende artikel nemen we een kijkje in een bizarre conversatie die met ChatGPT is gevoerd waarin het systeem gelijktijdig meerdere identiteiten aanneemt.... En hoe ziet een dialoog er uit als de deelnemers niet (allemaal) meer échte mensen zijn?
ChatGPT is momenteel maar één van de A.I. oplossingen die beschikbaar zijn. Denk je dat jij voorlopig geen last/lust hebt van A.I. systemen? Kijk eens naar bijv. Microsoft Outlook. Zie je de antwoord-voorstellen die aangeboden worden? Ook dat is A.I. En wie vandaag de dag een klantenservice benadert zal merken dat in veel gevallen de communicatie gestart wordt door 'onze vriendelijke chatbot' of iets dergelijks. Hoe zijn jouw ervaringen?
Als je zelf ervaringen hebt met geautomatiseerde dialogen en wat het met jou doet, laat het eens weten. Je reacties zijn welkom via contact.
Disclaimer: de inhoud van deze blog is (deze keer... ;-) volledig door een mens geschreven. Het voice-fragmentje van Trump over TussenIkenJij is (vast geen verrassing..) fake en gemaakt met een van de vele tools voor Text-to-speech.
Tot slot een verzoek: wil je dit artikel delen via bijv. LinkedIN of facebook? Hieronder vind je de deel-buttons.
Comments