Wij zijn Gen T en Black Mirror wordt werkelijkheid: Amy Webb over de Technology Supercycle en connectables

Featured Session: Amy Webb Launches 2024 Emerging Tech Trend Report

Door: Gerson Veenstra

Ben je bij SXSW, dan ga je naar Amy. Maakt niet uit hoe lang de rij is en maakt niet uit wat er nog meer is. Oké, ik overdrijf. Maar ze staat wel in het lijstje met vaste populaire sprekers. En je kunt het Emerging Tech Trend Report 2024 waar ze over vertelt ook gewoon online bekijken en zelfs de presentatie en allerlei extra's downloaden, maar door de enthousiaste manier waarop Amy het vertelt, komt het allemaal altijd net wat meer binnen. 

10 minuten later dan gepland, kon ze dan toch beginnen aan haar presentatie: "Mijn schuld!" Ze legt uit dat ze haar presentatie nooit vooraf stuurt, omdat ze altijd tot het laatste moment nog aanpassingen doet. "Ik ben op een punt in mijn leven dat tijd extreem kostbaar is, dus elke seconde die jullie op mij wachten, moet het waard zijn." En dan kan het dus voorkomen dat er op het laatste moment technische problemen zijn. Ze lost het fantastisch op met ook nog een woordje Braziliaans, Duits en Japans. 

"Trends zijn langetermijnpatronen die een richting van verandering in de loop van de tijd aangeven." Denk aan de uitvinding van de stoommachine. Het was niet alleen een nieuwe machine, maar leidde tot industrialisatie. Internet net zo. De technologie internet is één, maar kijk wat er daardoor allemaal is veranderd. En ging het bij die voorbeelden om één technologie, nu zijn het er drie. 

Technology Supercycle

Volgens Amy is er de afgelopen jaren een 'Technology Supercycle' ontstaan. In de afgelopen vijf jaar is er een enorme sprong gemaakt op drie primaire gebieden van technologie: kunstmatige intelligentie, een soort verbonden ecosysteem van dingen en biotechnologie. Wat er gebeurt is zo alomtegenwoordig dat het elk segment van onze economie is gaan beïnvloeden.

De innovatiegolf die er nu komt, gaat het menselijk bestaan opnieuw definiëren, volgens Amy. Wat spannend is, maar ook doodeng. Iedereen voelt dat dit gebeurt, maar de onzekerheid die het met zich meebrengt verlamt leiders. Amy noemt dat FUD: Fear (angst), Uncertainty (onzekerheid) en Doubt (twijfel).

Je weet nog niet wat je moet met AI. Je weet nog niet wat je ervan moet denken. Je maakt je zorgen over je baan. We maken ons met z'n allen zorgen over de tijd waarin we zitten. Wij zijn Gen T, volgens Amy: de Transition Generation. Na deze hele ontwikkeling gaat de maatschappij er heel anders uitzien volgens haar. En toch hebben we het meer in de hand dan we zelf denken: "FUD can go Fuck itself."

Wie is er verantwoordelijk?

Als het gaat om kunstmatige intelligentie, is er nogal wat veranderd: "Inmiddels worden alle LinkedIn-posts door AI gemaakt." Maar je hebt nog steeds behoorlijk letterlijke prompts nodig om een goed resultaat te krijgen. Dat gaat volgens haar meer naar conceptuele prompts, waarbij de AI met je 'meedenkt' om tot een resultaat te komen 

Tegelijkertijd gaan er dingen ook niet snel. Vorig jaar liet ze zien hoe Midjourney alleen witte mannen liet zien als je vroeg om afbeeldingen van directeuren van een groot bedrijf. Dat is nog steeds zo. Zelfs als je vraagt om de directeur van een bedrijf dat tampons maakt. 

Hoe kan dat? Hoe zit het met verantwoordelijkheid? De teams die zich met ethiek bezighouden, bepalen volgens haar nog steeds niet het beleid. En door de snelheid van de ontwikkelingen, wordt er te weinig tijd aan besteed. Daardoor wordt het probleem niet opgelost. 

De risico's van onbeveiligde AI

AI is nu nog beperkt, maar wel een soort tuin met een hek eromheen. Bedrijven als OpenAI bepalen de grenzen. Maar er komen steeds meer open-source-taalmodellen, zoals Llama. Die kunnen alleen ook heel snel aangepast worden (want open source), zodat je een ongecensureerde versie krijgt. 

Bedenk eens wat je daar mee kunt: deepfake porno zoveel als je wil, een biologisch wapen? Onbeveiligde modellen kunnen makkelijk misbruikt worden. En wie is er dan verantwoordelijk? Bij technologie als dit, is het antwoord meestal: niemand. "We zijn maar het platform", was altijd het argument als gebruikers te ver gingen. Maar moet dat niet anders, vraagt Amy zich af. 

Wat als we AI laten oefenen zonder diploma? Moet een AI-model bijvoorbeeld niet een ethiektraining krijgen? Mensen die fouten maken als ze zonder diploma opereren kunnen de cel in gaan. Wat als AI een fake evenement organiseert? Met allerlei nepaccounts, nepvideo's en nepafbeeldingen? Het zou een behoorlijke tijd duren voordat we dat in de gaten zouden hebben. Zou je een regionaal conflict kunnen veroorzaken met zoiets, wat kan leiden tot een oorlog? Bijvoorbeeld als dit in Gaza gedaan zou worden?

Large action models en connectables

De volgende verandering volgens Amy is dat we van Large Language Models naar Large Action Models gaan. LLM's voorspellen wat je gaat zeggen, LAM's voorspellen wat je gaat doen. Amy voorspelt een explosie van apparaten die zij connectables noemt: een netwerk van onderling verbonden apparaten die communiceren en gegevens uitwisselen om de vooruitgang van kunstmatige intelligentie te vergemakkelijken en te stimuleren. 

Ze noemt als extreem voorbeeld een kattenluik dat de kat pas binnenlaat als hij z'n prooi laat vallen, wat dan dus door AI wordt beoordeeld. Maar waar het volgens haar naartoe gaat is dat je een soort persoonlijk minibrein in je zak hebt. Je zult volgens haar overal dit jaar de gezichtscomputers (zoals zij ze noemt) zien: de Apple Vision Pro. Misschien blijkt het net zoiets te zijn als de oorspronkelijke iPhone, met alle beperkingen van toen. Maar bedenk wat de iPhone nu is en waar het naartoe kan gaan. Ook Google, Samsung, Meta en Snap werken hieraan. 

Wat als? 

Toch is het volgens haar iook goed om na te denken over mogelijke consequenties. Je pupil reageert al voordat jij zelf iets voelt. Maar dat wordt gezien door je 'gezichtscomputer'. Er komen volgens haar enorm veel nieuwe apparaatjes die de hele dag data verzamelen en je op de een of andere manier helpen. 

En dat kan je inderdaad enorm helpen. Stel je voor dat je de hele dag analyses kunt krijgen, waar en wanneer je wil? Dus dat je bijvoorbeeld een presentatie bijwoont en binnen een uur een automatische presentatie hebt die helemaal toegespitst is op jouw bedrijf? En jij de kroeg in kunt? Maar wat als jouw Large Action Model hallucineert? En bijvoorbeeld nazi's gebruikt in de presentatie en dat automatisch naar je baas stuurt? 

Wat als jouw connectable leidt tot sociale scores? Of als prijzen niet meer vaststaan, maar aangepast worden op jou? En dat prijzen zo hoog worden, dat je het alleen maar kunt betalen als je in de winkel eerst een reclame van het product bekijkt met je 'gezichtscomputer' op die ook in de gaten houdt of je er wel echt naar kijkt (helemaal zoals in Black Mirror dus)? Als je rijk bent, heb je dat niet nodig. Dus dan loop je gewoon rond. Mensen die het niet kunnen betalen, staan stil om eerst reclames te kijken. 

Oproep aan overheid, bedrijven en ons

Technologie op zich is niet gevaarlijk. Wat mensen ermee doen, kan dat wel zijn, zegt Amy. Ze eindigt met een aanklacht tegen de leiders van grote techbedrijven die stuk voor stuk gaan doen alsof ze de mensheid gaan redden met hun technologie. 

En ze doet een oproep aan overheden, bedrijven en ons. Overheden moeten volgens haar transitieministeries oprichten, bedrijven moeten hun netwerkwaarde opnieuw bepalen en wij moeten vechten voor onze toekomst. 

Terugkijken kan hier

Comments

Prima samenvatting van een boeiende keynote. Ik heb 'm gisteravond bekeken.
Dankjewel Wilfred!

Add a comment