Stephen Hawking en zijn fatalistische kijk op A.I. Hoe ouder het wereldberoemde genie wordt, hoe minder verlegen hij wordt voor een gedurfde uitspraak. In een spraakmakend artikel met The Independent spreekt Stephen Hawking zijn bezorgdheid uit voor de ontwikkeling van de artificiële intelligentie. Het zal volgens hem de grootste doorbraak zijn in de geschiedenis, maar misschien ook de meest fatale.
We zijn nog wat verwijderd van de doomscenario’s die we kennen uit Hollywoodproducties zoals de “Terminator” reeks, maar volgens de geniale man zou het fout zijn om dergelijke toekomstbeelden weg te lachen met het woordje sciencefiction. Volgens hem gaat de ontwikkeling gewoon te vlug, zonder dat er echt onderzoek is gebeurd naar de gevolgen voor de mens.
Momenteel is er volgens de geleerde een regelrechte IT-wapenwedloop, traditionele oorlogsvoering heeft zijn beste tijd gehad, wat nu komt en op de ontwikkelingsborden ligt van de moderne legers is nog niet te bevatten.
Stephen Hawking vreest echter dat met de A.I. er vele gemiste kansen zullen zijn die men niet zal benutten zoals het uitroeien van ziektes, oorlogen, armoede of honger. Zijn schrik bestaat er in dat de militairen de overhand gaan nemen, met alle gevolgen van dien. De meeste theoretische mogelijkheden zijn zo fantastisch dat wij er geen flauw besef van hebben wat ze zullen teweegbrengen. Hoe en wie deze nieuwe wetenschappen zal controleren zal doorslaggevend zijn voor de toekomst van de mensheid.
Stephen Hawking pleit dan ook voor een internationale bezinning over het onderwerp. Staat de mensheid aan de oever van de meest fantastische ontwikkelingen of staan we aan de rand van de afgrond? Volgens hem moet er een manier worden gevonden om te profileren van de voordelen maar met ingebouwde risicobeperkingen.
Pessimistisch of realistisch? De man is slim genoeg om te weten dat deze evolutie niet meer te stoppen is.
Het einde van de mensheid, ja en? Ik geneer mij eigenlijk dood om tot deze levensvorm te behoren. Please take over IT and forget all about your creators.