10 blunders met kunstmatige intelligentie

Door: Justin Doornekamp | 01 januari 2019 17:47

kunstmatige intelligentie
Blog

De mogelijkheden van kunstmatige intelligentie zijn oneindig, maar de technologie staat nog wel in de kinderschoenen. En zoals wel vaker bij nieuwe technologie, gaat er vaak genoeg mis. Ook in 2018 zijn er enkele flinke misstappen gemaakt met kunstmatige intelligentie, soms zelfs met dodelijke afloop. Een overzicht.

1. Chinese miljardair wordt voor de verkeerde aangezien

De verkeerspolitie in diverse grote Chinese steden gebruiken kunstmatige intelligentie om onder meer personen te identificeren die roekeloos de weg over zijn gestoken. Het systeem is echter nog niet waterdicht. In de havenstad Ningbo werd een Chinese miljardair ten onrechte door het systeem aangemerkt als iemand die de verkeersregels had overtreden. De fout ging viral op Chinese social media en de politie moest flink door het stof.

2. Ongeluk zelfrijdende Uber

In maart veroorzaakte een zelfrijdende auto van Uber tijdens een testrit een dodelijk ongeluk. Hierbij kwam een 49-jarige vrouw om het leven. Het ongeluk in Arizona is het eerste dodelijke ongeluk van een zelfrijdende auto en een voetganger wereldwijd. Uber heeft zijn programma voor zelfrijdende auto's in de Verenigde Staten en Canada per direct opgeschort.

3. IBM Watson schiet tekort

Watson, het kunstmatige intelligentie-platform van IBM, zou onveilige en verkeerde kankerbehandelingen hebben aangeraden. Dat schreef de website Statnews in juli en baseerde zich op interne documenten van het technologiebedrijf. In de documenten is sprake van medische professionals die verschillende voorbeelden vonden van onveilige en onjuiste aanbevelingen voor behandelingen die Watson had gegeven. Het platform zou ook vaak incorrecte suggesties hebben gegeven, waardoor er vragen rijzen over de betrouwbaarheid van het systeem.

4. Sollicitatierobot Amazon discrimineert vrouwen

Amazon begon in 2014 met het bouwen van een systeem dat cv's van kandidaten kon scannen, om zo de zoektocht naar talent te automatiseren. De nieuwe tool gebruikte kunstmatige intelligentie om kandidaten een score van één tot vijf toe te kennen en hier vervolgens de beste kandidaten uit te halen. Dit jaar bleek echter dat de robot onderscheid maakte tussen mannen en vrouwen bij de selectie. In principe geen probleem, maar gezien de meeste cv’s van mannen kwamen leerde het systeem dat zij dan ook de voorkeur in het selectieproces moesten hebben ten opzichte van vrouwen. Uiteindelijk besloot Amazon het experiment met de sollicitatierobot maar stop te zetten.

5. Opkomst deepfakes

In 2018 zagen we ook de opkomst van deepfakes. Deepfakes is de naam die gegeven is aan nepvideo’s die nauwelijks van echt te onderscheiden zijn, dankzij een specifieke machine learning-techniek. Hierdoor kon het gebeuren dat politici woorden in de mond gelegd kregen en dat beroemdheden ineens te zien waren in seksvideo’s. Hoewel deepfakes misschien technisch gezien niet onder blunders vallen, zijn de gevaren ervan volgens velen groot.

6. Misser van Google Photos Assistant

Met de Assistent-optie in Google Photos worden onder meer suggesties voor nieuwe fotocollecties gedaan op basis van je gemaakte foto’s. Lang vergeten foto’s kunnen zo opnieuw onder de aandacht gebracht worden en dat brengt herinneringen terug.

De Assistent-functie gaat verder dan dat: op basis van kunstmatige intelligentie kan het foto’s met dezelfde achtergrond samenvoegen tot één panoramisch beeld. Dat moet haast een keer fout gaan. In januari publiceerde een Reddit-gebruiker drie foto’s, gemaakt bij een skiresort. Op twee foto’s is het landschap te zien, op de derde een foto van zijn vriend. Toen Google Photos de drie beelden bij elkaar bracht, werd het hoofd van die vriend herkend als een van de bergen op de achtergrond. Het resultaat is op zijn minst hilarisch te noemen.

Een ietwat hilarische misser van Google Photos Assistant.

7. Slimme robot van LG krijgt plankenkoorts

Tijdens een persconferentie op de techbeurs CES in Las Vegas onthulde LG de slimme robot CLOi, die met de stem bediend kan worden. De robot viel tijdens de persconferentie echter meermaals uit, met ongemakkelijke stiltes als resultaat.

8. Voorspellingen WK kloppen van geen kant

Het wereldkampioenschap voetbal dit jaar bleek voor wetenschappers van onder meer Goldman Sachs, de Duitse technische universiteit van Dortmund, spelletjesmaker Electronic Arts (EA) en Perm State National Research University een ideaal moment om hun kunstmatige intelligentie-modellen uit te proberen. Het doel: de winnaar van de competitie raden. De meeste instanties zaten er echter compleet naast. Alleen EA wist op basis van zijn FIFA 18-modellen Frankrijk aan te wijzen als winnaar.

9. IQ beoordelen op basis van gezicht

De Israëlische startup Faception deed afgelopen jaar een wel heel controversiële claim: zijn technologie zou op basis van gezichtsfoto’s en bottenstructuur het IQ en persoonlijkheid van die persoon kunnen beoordelen. De technologie bleek niet te werken en Faception kreeg een stortvloed aan kritiek over zich heen. De racismekaart werd al snel getrokken.

10. Robot van Boston Dynamics valt

Boston Dynamics heeft het internet dit jaar meerdere keren op zijn kop gezet, onder meer met de robothond SpotMini die zelf deuren kan openen en Atlas, die al rennend en springend een heel parkoers kan afleggen.

Alleen Atlas heeft ook wel eens zijn dag niet. Tijdens zijn debuut op het Congress of Future Scientists and Technologists liet hij zich aanvankelijk nog van zijn beste kant zien. De robot liep rondjes en verplaatste enkele dozen. Het leek een perfecte presentatie te worden, totdat Atlas het podium af wilde lopen. De robot struikelde over het gordijn en donderde hard het podium af… (vanaf 4:05)

0 Reactie(s) op: 10 blunders met kunstmatige intelligentie

  • Om te reageren moet je ingelogd zijn. Nog geen account? Registreer je dan en praat mee!
  • Er zijn nog geen reacties op dit artikel.

Wanneer je een reactie plaatst ga je akoord
met onze voorwaarden voor reacties.