Fast Forward Q&A: emotionele machines bouwen

Welkom bij Fast Forward, waar we praten over leven in de toekomst. Op SXSW dit jaar spraken we met Sophie Kleber, Executive Director of Product and Innovation bij het Huge Digital Agency. In onderstaand interview gaan we onder andere in op gespreksinterfaces, slimmere machines maken en de botrevolutie. Bekijk onze chat of lees het transcript hieronder.


Dan Costa: Je hebt een presentatie gegeven over hoe we meer emotionele machines kunnen maken. Wat houdt dat precies in en waarom willen we meer emotionele machines?



Deze vraag werd mij gesteld in mijn talk. Toen ik emotioneel intelligente mens-computer- of machine-computer-interacties voorstelde, zeiden mensen: 'We hebben niet eens emotioneel intelligente mensen, dus is het alsof de blinde de blinder leidt?'

Het punt is dat we ons momenteel op een supersnel punt bevinden tussen hoe we omgaan met machines. De tijd van wat we 'de terminalwereld' noemen - waar we communiceren via steeds kleiner wordende terminals, maar het zijn eigenlijk alleen maar schermen - die tijd is voorbij. De interacties die we nu hebben worden veel intuïtiever.

Voice is de leidende kaart ervan, maar zelfs het Internet of Things, waarin rekenkracht je leven omhult en dingen doet zonder jou, zelfs kleine aanpassingen zonder dat je er bewust over nadenkt, is een heel, heel nieuwe wereld van interactie met machines. De intelligentie die ook begint op te komen is fascinerend.

Wat ons is opgevallen in onderzoek dat we hebben gedaan met mensen die met Alexa of Google hebben gepraat, is dat op het moment dat de machine begint te praten, mensen relaties aangaan. Het is niet zo dat deze mensen zeggen: 'Oh, het is nu gewoon makkelijker.' Ze gaan er ook van uit dat de machine een soort van empathie voor hen heeft, een soort van ondersteuning. Het moment om na te denken over wat dat betekent en wat die persoonlijkheid is, is nu.

Dan is er nog die andere angst die eraan komt. Het komt al sinds 1995, toen het werd uitgevonden aan het MIT door Rosalyn Picard, het idee van effectief computergebruik. Dat betekent dat machines emoties kunnen begrijpen, interpreteren en decoderen en mogelijk ook emotioneel kunnen reageren. Er zijn deze twee kanten, toch?

Ja.

Het is heel, heel belangrijk dat we er nu over praten, omdat dit de eerste stap is om gedachten te lezen. Tegen 2021 zal dit naar verwachting een industrie van $ 36,4 miljard zijn, dus het is een enorme industrie van alleen het detecteren van emoties. Als je ziet wat deze machines kunnen detecteren, zijn er eigenlijk drie berichten. Er is gezichtsherkenning, stem en biometrie. Facial is het meest geavanceerd vanwege deze microbewegingen die we hebben en micro-expressies die we hebben.

Als je ziet wat er gedaan kan worden, lijkt het een beetje op gedachten lezen. Het is een enorme kans en een enorme verantwoordelijkheid. Iemand die ik sprak bij MIT zei dat het net kernenergie is. Nu moeten we kijken wat we ermee doen. Daarom hebben we het er nu over, want het moment is daar. De intelligentie komt eraan, de interactiemodellen veranderen, dus we moeten het uitzoeken. Mensen zijn er klaar voor, of nemen het van nature aan, dus we moeten uitzoeken wat we als industrie doen en hoe we erin komen.

Ik denk dat de uitdrukking 'terminal-based computing' interessant is. PCMag dekte duidelijk de geboorte van de pc-industrie. We verhuisden naar de mobiele ruimte, maar dat was eigenlijk gewoon een terminal die je overal mee naartoe kon nemen. Nu we Siri en Google Now hebben, waren dat prima interfaces, maar met de opkomst van Alexa en Google Home vind je mensen thuis die vragen stellen en in gesprek raken. Ze nemen letterlijk aan dat er een soort emotionele reactie is. Ze lezen erin.

Klopt.

Dat komt omdat we als mensen zijn gebouwd om naar dat soort reacties te zoeken.

Ik heb veel nagedacht over waarom Siri geen succes was en Alexa wel. Ik denk dat er twee delen zijn. De eerste is dat Siri is gebouwd als een alternatieve interface voor een interface die er al was. Siri is aan de telefoon, er is al een interface, waarom zou ik het overschakelen naar de stem, toch?

Omdat de spraakinterface slechter was dan de schermgebaseerde interface, ging deze niet van start. Alexa heeft geen scherminterface. Het is maar een puck. Het heeft alleen de spraakinterface. Plus Alexa's in het comfort van je huis waarin je een heel ander begrip van privacy hebt. Het is van jou. Je voelt je veel comfortabeler door hardop tegen een machine te praten dan in het openbaar, [waar] ik Siri geen rare, gênante vragen ga stellen.

Ik sta er echter versteld van hoeveel mensen dat doen. Compleet spraakdictaat in een overvolle trein.

Ja, het begint een beetje raar te worden omdat deze mensen vergeten dat ze niet in een privéruimte zijn. Ze begrijpen niet wat iedereen kan horen. We zien hoe dat gaat. De aanname van emoties was behoorlijk groot. In ons gebruikersonderzoek hebben we alles gevonden, van het willen van een basisassistent, gewoon de klusjes doen en je aan dingen herinneren, tot deze ene man zei: 'Wat als ik naar huis kon komen en op mijn AI kan lossen? Ik kan gewoon uitladen wat er die dag is gebeurd en de machine zegt: 'Oh ja, dat is geweldig.'

Hij wilde dat het luisterde.

Ja. Hij gebruikte letterlijk de uitdrukking 'in plaats van de psychiater te betalen'. Toen vroegen we mensen in een ideale wereld, wat zou je de relatie tussen de machine omschrijven? Ze zeiden alles, van assistent tot vriendelijke assistent, tot vriend, tot beste vriend, zelfs moeder. Twee mensen hadden hun AI genoemd en de een had het naar hun moeder genoemd en de ander had het naar hun kind genoemd. Dit zijn zeer, zeer persoonlijke relaties, dus het is er al.

Ik denk dat als we nadenken over wat merken moeten en kunnen doen, het eerste waar we aan moeten denken, is wat we hier proberen te bereiken? Proberen we Prozac in computervorm te maken? Ik denk dat het onderzoek naar geluk gelukkig genoeg is geëvolueerd om te begrijpen dat dat geluk niet het doel is. Mensen willen een vervuld leven, bloeien. Een manier om te floreren is niet alleen gelukkig zijn. Het heeft te maken met betekenis. Het heeft te maken met betekenisvolle relaties en prestatie. Dit concept van veerkracht zegt dat je naar beneden moet om weer op te staan ​​en het gevoel te hebben dat je iets hebt bereikt.

Emoties zijn zo ingewikkeld als f**k. Geluk is ingewikkeld. Alles is iets dat we heel genuanceerd moeten zijn in wat we willen bereiken. Als we er even vanuit gaan dat we floreren, toch? Dan moeten we goed kijken, wat voor soort input hebben we? Wat voor manieren hebben we dan om te reageren? Er zijn twee delen. Ik ontwikkel in wezen een raamwerk en het raamwerk bestaat uit twee delen. De eerste is toestemming om te spelen en verlangen naar emotie.

Vanuit een gebruikersperspectief moet je begrijpen of er in deze specifieke situatie een verlangen naar emotie is. Kijk je naar de emotionele toestand van de gebruiker op dit moment? Zijn ze in een goede emotionele toestand? Wat zijn hun emotionele ambities? Willen ze vanuit die staat ergens anders heen? Wat is de aard van de interactie? Is het een transactie? Alsof ik alleen transacties doe met American Airlines of wat dan ook, ik kan op geen enkele manier emoties opwekken, omdat het op geen enkele manier een interactie is die dat bedwingt en vereist.

Ik denk dat veel merken op dat moment een fout maken. Ze bevinden zich in een situatie waarin het een transactie zou moeten zijn en in plaats daarvan proberen ze een gesprek te voeren met hun gebruiker en de gebruiker wil geen gesprek.

De afgelopen 20 jaar heeft het internet geperfectioneerd als een transactiemachine. Als je kijkt naar alle bedrijven die aan de macht zijn gekomen - Amazon, Google, al deze reissites - zijn dit allemaal op transacties gebaseerde situaties. Dat hebben we geperfectioneerd, dus daar mogen we niet mee rommelen.

In dat kader moet je dan kijken of er echt een verlangen is naar emotionele interactie. Dan moet je kijken naar de context van de gebruiker. Als we hier zitten en we hebben een connectie, zou een AI binnenkomen en zeggen: 'Oh, je lijkt gestrest. Rustig aan.'

Het gaat niet goed over komen.

Het is niet het juiste moment in de tijd. Precies. Dan moet je aan de merkkant ook over veel dingen nadenken. Ik denk dat het in 2014 was dat Facebook daadwerkelijk een experiment uitvoerde.

Een zeer controversieel experiment.

Een zeer controversieel experiment. Ze wilden begrijpen of als je naar positieve dingen in je nieuwsfeed kijkt, je gelukkiger wordt en vice versa. Als je naar negatieve dingen kijkt, word je droeviger, toch? Ze voerden dit experiment uit waarbij ze duizenden en duizenden mensen neutraal tot positieve berichten lieten zien en vice versa, neutraal tot negatieve berichten. Meet vervolgens het sentiment in hun berichten, om erachter te komen of ze blijer of verdrietiger waren.

Laag en zie, dat waren ze natuurlijk. Als je meer negatieve berichten zou zien, zou je ook iets negatiever posten. Het probleem was dat ze dat volledig deden zonder dat mensen ermee instemden. Ze deden het volledig zonder toestemming. Ze vallen terug op hun algemene voorwaarden en zeiden dat dit prima is, maar ...

Omdat het ingenieurs zijn.

Het zijn ingenieurs.

Het waren gewoon bètatests van ingenieurs. Ze waren gewoon een theorie aan het A/B-testen.

Precies.

Ze verzamelden gegevens en het waren bruikbare gegevens.

Het waren nuttige gegevens, maar dit is de gevarenzone. Als je het van de andere kant bekijkt, maakte Facebook in 2014 opzettelijk duizenden en duizenden mensen verdrietig. Dat is ethisch niet juist. We balanceren momenteel op dit randje waar een aantal bedrijven mee spelen. We zien bedrijven naar de markt gaan die zeggen 'we kunnen je stressniveau meten en nu gaan we er zelfoptimalisatie en gamification op toepassen en zeggen dat je een neiging hebt om minder gestrest te zijn'.

Niemand weet of dit gewenst is, dus we moeten heel voorzichtig zijn. Je kunt niet ontwerpen wat je niet kunt begrijpen. Cognitieve interactie en vooral emoties is iets waar we nog maar aan het oppervlak van krabben. Elke ontwerper moet heel, heel voorzichtig zijn om niet iets te ontwerpen dat we niet echt kunnen begrijpen. Dat weerhoudt ons er trouwens ook van om ooit of in de nabije toekomst Ex Machina te ontwerpen, toch?

Natuurlijk.

We kunnen nog geen machine ontwerpen die ambities heeft als we niet echt begrijpen hoe ambities worden gevormd. We kunnen een emotionele, gekke manipulator niet echt begrijpen, als we niet begrijpen hoe emoties werken en waarom ze werken bij de ene persoon en niet bij de andere. Dan zijn er natuurlijk de wetten van de robotica die ook van toepassing zijn, waarvan de eerste wet een mens niet schaadt of verwaarloost, toestaat dat een mens schade wordt berokkend.

Ik maak me geen zorgen over het Ex Machina gedoe. Ik maak me meer zorgen over het gebrek aan kennis en dus goedkope trucjes, zoals als je denkt aan de Hershey Smile Machine waar je naar toe gaat en als je lacht krijg je een gratis Hershey's.

Dat heeft iets Pavloviaans, meer dan wat dan ook.

Precies. We zijn geen Pavloviaanse honden en ik garandeer je dat dit geen oprechte glimlach is. De glimlach wordt pas echt als je de chocolade hebt. We draaien de zaken op een rare manier om, want we spelen, we proberen het uit te zoeken.

Ik denk dat je gelijk hebt over het Hershey-experiment, maar er is technologie die kan bepalen of die glimlach echt is of niet.

Rechts.

De vraag is wie die informatie mag krijgen? Voor de gebruiker zou het natuurlijk geweldig zijn. Dat kan positieve feedback zijn. Het kan u helpen uw leven beter te leiden, maar moet uw werkgever toegang hebben tot die informatie? Moeten merken toegang hebben tot die informatie? Wat zijn dan de regels over wat ze met die informatie kunnen doen? Want op dit moment zijn er eigenlijk geen regels.

Als je kijkt naar de toestemming om te spelen, dat kader, is dat de juiste context? Heb je actieve toestemming van de gebruiker? Ik denk dat er op dit moment een actieve overeenkomst moet worden gesloten, dus ik kan je niet zomaar van een afstandje gaan scannen en zeggen: 'Deze persoon is blij of deze persoon is verdrietig', of je in de gaten houden van werkgelegenheid. Het is natuurlijk lastig omdat die omgeving een eigendomsomgeving is en je komt binnen, je gaat actief mee in die eigendomsomgeving als je je ergens aanmeldt voor een baan.

Ze lezen uw e-mails, of ze kunnen mogelijk, u gaat daarmee akkoord. Wat is dan ook alweer het doel van dat begrip? Is het doel om je emoties te veranderen voor emotioneel welzijn of is het doel productiviteit, wat niet hetzelfde is. Werkgevers proberen ze soms hetzelfde te maken, omdat het mooi zou zijn als ze dat zouden kunnen, maar dat is niet zo. Ik denk dat in dat kader het andere is: heeft het bedrijf echt een waardepropositie waarmee ze in die ruimte kunnen spelen?

Omdat we nog maar aan de vooravond van onderzoek staan, wordt veel van het werk dat wordt gedaan gedaan in een soort van welzijn, zoals stress, gewichtsverlies, met mensen die moeite hebben met het decoderen van emoties. Het is heel erg een welzijns-, gezondheids-achtige ruimtesituatie, maar het zal daar niet blijven. Wat is je waardepropositie dat je daar kunt spelen en heb je dan eigenlijk de juiste intelligentie? Ken je en heb je de juiste algoritmen om te decoderen wat je ziet? Dan begrijpen wat eruit komt.

Als je naar dat raamwerk kijkt, vul je het met in wezen drie verschillende manieren waarop een machine kan interageren. De eerste is dat het reageert als een machine. Het begrijpt de emotionele input, maar het werkt als een machine. Conversationele IVR's doen dat, toch? Ze leiden je. Ze begrijpen je stressniveau, maar ze leiden je of brengen je naar een mens, dus het is meer als een schakelbord dan wat dan ook. Of veiligheid in auto's, de auto begrijpt dat je in slaap valt of dat je boos wordt. Ze reageren als een machine door de machine aan de kant te zetten of te stoppen.

Ze kunnen de emotie lezen, ze kunnen het erkennen, maar dan reageren ze als een machine in plaats van als een mens.

Precies. Dat is de eerste optie. De tweede optie is het idee dat de machine reageert als een verlengstuk van zichzelf. Er zijn twee delen. De eerste is om de emoties zichtbaar te maken voor de gebruiker, zodat het een leerervaring is en je vertelt dat je stressniveau hoog is. Je vertellen dat je boosheid hoog is, of dat soort dingen. [Het is een] beetje [zoals] Big Hero 6... diagnostiek.

Het is dit idee om het gewoon een beetje bloot te leggen, maar de gebruiker heeft de volledige controle over het veranderen van de emoties of het handelen op welke manier dan ook. Dit is de ruimte waarin we ons nu erg op ons gemak voelen, maar de ruimte gaat heel gemakkelijk over in een ruimte van empathie. De vraag rijst: zouden we ooit bereid zijn te betalen voor zo'n service met de veronderstelling dat deze service uniek voor ons is? De service accepteert geen advertenties zoals Apple. Het doet geen advertenties en dat soort dingen, en daarom betalen we ervoor dat het uniek voor ons is.

Dan is de laatste het idee om als een mens te reageren. Dat is het idee dat ik als gebruiker een overeenkomst aanga met de machine waardoor die machine mijn emotie kan manipuleren, nog steeds gebaseerd of met de premisse van mijn welzijn, maar ik ga actief de overeenkomst aan dat deze machine mijn emoties kan manipuleren.

Je geeft het wat onafhankelijkheid.

Je geeft het enige onafhankelijkheid en je geeft het enige toestemming om je advies te geven.

En om jou te sturen.

Om je te sturen, ja.

Dat Facebook-experiment was erg leerzaam. Ze ontdekten wat mensen verdrietig maakt, wat mensen gelukkig maakt. Ik kan me voorstellen dat mensen zeggen: 'Nou, ik betaal $ 5 extra per maand voor een Facebook-feed waar ik blij van word.'

Rechts.

Ik word er 'gelukkiger' van, moet ik zeggen.

Het maakt me gelukkiger, precies. Ik wist dit niet, maar in het onderzoek dat ik vond toen je Alexa vroeg of tegen Alexa zei: 'Alexa, ik ben echt verdrietig', reageert ze eigenlijk als een scène uit Big Hero 6. Ze zegt: 'Het spijt me je voelt je zo. Soms helpt het om naar muziek te luisteren of een wandeling te maken of vrienden te bellen of met vrienden te praten. Ik hoop dat je je snel beter voelt.'

Ze is niet gekwalificeerd. Dit is vergelijkbaar met Google 101-onderzoek. Ik vond dit op internet, maar mensen denken er al over na, technici denken er nu over na. Het is geen cognitieve psychologie. Het zijn geen ontwerpers. Het zijn niet eens marketeers, maar het zijn ingenieurs die over dit soort dingen nadenken. Het komt heel dichtbij en het idee dat een machine die je heel snel een machine zou kunnen vragen voor dit soort advies is er. Het is niet morgen. Dit is nu.

Zijn er merken of bedrijven die dit goed doen? Die een dienst verlenen die een van deze dingen goed kan doen?

Er zijn een paar bedrijven. Omdat we momenteel eigenlijk nog maar net van onderzoek naar commerciële toepassingen gaan, zijn er een paar bedrijven die in deze ruimtes interessante dingen doen. AutoEmotive is een bedrijf dat het in de rijruimte doet, in de autoruimte om te zeggen oké, we gaan al deze dingen detecteren, maar als je ernaar kijkt, is het nog steeds een beetje zoals een draad, het ziet eruit als een fysiek computerexperiment een beetje. Ze zijn behoorlijk goed gefinancierd als een start-up.

Affectiva doet natuurlijk veel in de commerciële ruimte door mensen advertenties te laten zien en mensen de micro-uitdrukkingen te laten lezen. Het is marktonderzoek, maar het is belangrijk en interessant.

Er is één bedrijf, het heet SimSensei, en het lijkt een beetje op praten met een simkaart, maar het idee is dit. Bij PTSS-behandelingen en dergelijke, vooral jonge mannen, hebben soldaten enorme moeite om met therapeuten te praten vanwege het stigma van de psychiater, enzovoort.

Ze hebben een emotioneel reagerende of empathische bot ontwikkeld om deze gesprekken te starten. Terwijl ze zeggen oké, deze gesprekken zijn niet per se de enige therapie, ze zijn slechts een hulpmiddel bij echte therapie, dit heeft een enorm succes bij dit soort doelgroepen. Ze voelen zich veel comfortabeler om met een machine te praten omdat ze denken dat het gewoon uit en voorbij is. Het is net als de man in het onderzoek die zei: 'Ik heb met mijn bot gepraat en het is klaar en het is uit. Het is voorbij.'

Er is een weg naar iets waar voorheen veel mensen geen toegang toe hadden of een stigma omheen hadden, waar het eigenlijk interessant begint te worden.

Dat is fascinerend. Ik kom tot mijn slotvraag. Ik vraag dit aan al mijn gasten. Over welke trend, technologische trend maakt u zich in de toekomst het meest zorgen?

Ik moet wel zeggen dat het de trend is om de emoties te begrijpen, want dat is natuurlijk waarom ik het erover heb.

Je hebt zorgen. Je maakt je hier zorgen over.

Ik maak me hier zorgen over. Yale University en MIT zijn onlangs een overeenkomst aangegaan om 27 miljoen dollar opzij te zetten om na te denken over de ethiek hiervan. Als je enkele van deze detecties ziet en ziet wat eruit komt, is het heel intiem en komt het dicht bij gedachtenlezen. Ik ken je gedachten niet, maar ik ken je gevoelens. Er is iets aan dat we moeten zien hoe we ons er prettig bij voelen.

Ik denk echter dat er een constante aanpassingscurve is tussen wat technologie kan en wat mensen willen. Het is een beetje zoals tennissen, toch? Er komt iets naar voren in termen van een technologisch vermogen en we hebben zoiets van, 'Ok, cool.' Op een gegeven moment gooien we de bal terug en denken we: 'Nee, niet cool. We willen het niet.'

Ik denk dat hier ook iets soortgelijks gaat gebeuren en mogelijk is er een idee dat met het idee om deze emoties bloot te leggen, we ook meer op hen afgestemd raken.

We hebben het over gedachtenlezen, maar nog minder dan gedachtenlezen kan het massale manipulatie zijn, op technologie gebaseerde manipulatie.

Rechts.

Wat zorgwekkend is.

Het is zorgwekkend, en als je naar de balans kijkt, weet je dat we het hier over 27 miljoen dollar hebben en dan over een verwachte 36 miljard aan de andere kant. Dit is een kleine verandering om opzij te zetten voor de ethiek ervan. Ik denk wel dat alle technologische vooruitgang ons aan het denken zet en ons als mensheid razendsnel aanpast. Ik denk dat dit daar weer een stukje van is.

Wat zie je in termen van positiviteit, positieve trends? Welke trend denk je dat je veel hoop geeft en waar je erg enthousiast over bent?

Ik ben erg enthousiast over het idee om geen interactie meer te hebben met machines als een scherm, omdat ik denk dat waar we naartoe gaan met conversatie-UI's en extra UI's en niet-UI's, net als echt niet-UI's, we komen terug naar een idee waarom we machines oorspronkelijk hebben uitgevonden. Dat is een idee om voor ons als mensen meer te hebben van wat we het meest waarderen, namelijk tijd en het leven leiden dat we willen leven. Net nu we geen idee meer hebben om een ​​machine te bedienen omdat we hun commando's moeten leren, maar eigenlijk een machine meer laten luisteren. We komen dichter bij die oorspronkelijke belofte, dus ik ben heel, heel blij om te zien waar dat heen gaat.

Is er een gadget dat je elke dag gebruikt en waar je gewoon verliefd op bent, dat je leven heeft veranderd?

Mijn Philips Hue.

Werkelijk?

Ja. Het is zo gek. Ja, ik heb het thuis maar in één kamer en ik vind het heerlijk om wakker te worden met licht in plaats van wakker te worden met een alarm, wat altijd een verschrikkelijk geluid is. Ik hou van het veranderen van stemmingen en dat soort dingen en ik hou ook van het potentieel dat het heeft als het eenmaal is verbonden en als het mogelijk kan worden verbonden met mijn biometrie om dingen gewoon zelf te doen. Ik vind verlichting zo'n fantastische kleine sfeerverbeteraar en om deze dingen met elkaar te kunnen verbinden.

Dat heb ik veel mensen horen zeggen. Ik stond erg afwijzend tegenover intelligente gloeilampen omdat ze erg duur waren en ik het nut niet zag. Zodra ik ze in mijn huis heb geïnstalleerd, gebruik ik ze elke dag.

Ja, het is gek.

Als mensen je werk willen volgen, willen weten waar je aan werkt, waar kunnen ze je dan online vinden?

Het beste voor mijn werk is Twitter. Ik ben @BIBILASSI. Dan hebben we natuurlijk bij Huge Inc. een blog waar we op Medium posten. Het heet Magenta. Soms, als ik een echte hersenvonk krijg, post ik het daar ook.

Voor meer Fast Forward met Dan Costa, abonneer je op de podcast. Download op iOS Apple's Podcasts-app, zoek naar 'Fast Forward' en abonneer je. Download op Android de app Stitcher Radio voor Podcasts via Google Play.

Aanbevolen verhalen

Garmin's Forerunner 935 smartwatch weet hoe hard je traint

Het apparaat is speciaal gebouwd voor serieuze hardlopers en triatleten.

Wetenschappers vinden een goedkope manier om vanaf het begin genomen te bouwen

Het zou kunnen leiden tot referentiegenomen voor vrijwel elk levend wezen.

Fast Forward met Pandora VP Product, Chris Becherer

Becherer vertelt over de toekomst van muziekstreaming, Pandora Premium en waar te verblijven bij SXSW.

Lenovo's nieuwste Yoga 2-in-1 packs ongewoon snelle graphics

De Yoga 720 is misschien wel de snelste cabrio in zijn categorie.