AI

Ethiek van AI: voordelen en risico's van kunstmatige-intelligentiesystemen

Ethiek van AI: voordelen en risico's van kunstmatige-intelligentiesystemen



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

De convergentie van de beschikbaarheid van een enorme hoeveelheid big data, de snelheid en de omvang van cloud computing-platforms en de vooruitgang van geavanceerde algoritmen voor machine learning hebben geleid tot een reeks innovaties in kunstmatige intelligentie (AI).

In theorie vertaalt de gunstige impact van AI-systemen op de overheid zich in het verbeteren van de gezondheidszorg, het onderwijs en het transport in slimme steden. Andere toepassingen die profiteren van de implementatie van AI-systemen in de publieke sector zijn onder meer de voedselvoorzieningsketen, energie en milieubeheer.

De voordelen die AI-systemen voor de samenleving opleveren, zijn inderdaad groots, net als de uitdagingen en zorgen. De leercurve van de evoluerende technologieën impliceert verkeerde berekeningen en fouten, wat resulteert in onverwachte schadelijke effecten.

We leven in tijden waarin het van het grootste belang is dat de mogelijkheid van schade in AI-systemen snel moet worden herkend en aangepakt. Het identificeren van de mogelijke risico's die door KI-systemen worden veroorzaakt, betekent dus dat er zo snel mogelijk een plan met maatregelen moet worden genomen om deze tegen te gaan.

Organisaties in de publieke sector kunnen daarom toekomstige potentiële schade anticiperen en voorkomen door het creëren van een cultuur van verantwoorde innovatie om ethische, eerlijke en veilige AI-systemen te ontwikkelen en te implementeren.

Dat gezegd hebbende, moet iedereen die betrokken is bij het ontwerp, de productie en de implementatie van AI-projecten, waaronder datawetenschappers, data-engineers, domeinexperts, leveringsmanagers en afdelingsleiders, AI-ethiek en veiligheid als prioriteit beschouwen.

Ethiek van kunstmatige intelligentie en robo-ethiek

Kunstmatige intelligentie-ethiek, of AI-ethiek, omvat een reeks waarden, principes en technieken die algemeen aanvaarde normen van goed en kwaad gebruiken om moreel gedrag te sturen bij de ontwikkeling en toepassing van kunstmatige-intelligentietechnologieën.

Robotethiek, ook wel robo-ethiek of machine-ethiek genoemd, houdt zich bezig met welke regels moeten worden toegepast om het ethische gedrag van robots te waarborgen en hoe ethische robots moeten worden ontworpen. Robo-ethiek houdt zich bezig met zorgen en morele dilemma's, zoals of robots op de lange termijn een bedreiging voor mensen zullen vormen, of dat het gebruik van sommige robots, zoals killer-robots in oorlogen, problematisch kan worden voor de mensheid.

Robotici moeten garanderen dat autonome systemen ethisch aanvaardbaar gedrag kunnen vertonen in situaties waarin robots, AI-systemen en andere autonome systemen zoals zelfrijdende voertuigen interactie hebben met mensen.

Kunstmatige intelligentie, automatisering en AI-ethiek

Kunstmatige intelligentie (AI) en automatisering veranderen en beïnvloeden onze samenleving ingrijpend. Het toepassen van principes van AI-ethiek op het ontwerp en de implementatie van algoritmische of intelligente systemen en AI-projecten in de publieke sector is van het grootste belang. AI-ethiek garandeert dat de ontwikkeling en inzet van kunstmatige intelligentie ethisch, veilig en uiterst verantwoordelijk is.

De nieuwe onderling verbonden digitale wereld aangedreven door 5G-technologie biedt een groot potentieel en snelle winst in de kracht van kunstmatige intelligentie voor een betere samenleving. Innovatie en implementatie van AI hebben al een impact op het verbeteren van diensten van gezondheidszorg, onderwijs en transport tot de voedselvoorzieningsketen, energie- en milieubeheerplannen, om er maar een paar te noemen.

Met de snelle vooruitgang in rekenkracht en toegang tot enorme hoeveelheden big data, zullen kunstmatige intelligentie en machine learning-systemen blijven verbeteren en evolueren. Binnen een paar jaar in de toekomst zullen AI-systemen gegevens niet alleen sneller maar ook nauwkeuriger kunnen verwerken en gebruiken.

Zoals altijd brengt macht een grote verantwoordelijkheid met zich mee. Ondanks de voordelen en voordelen die technologieën zoals kunstmatige intelligentie de wereld met zich meebrengen, kunnen ze mogelijk onherstelbare schade toebrengen aan mens en maatschappij als ze worden misbruikt of slecht zijn ontworpen. De ontwikkeling van AI-systemen moet altijd verantwoord zijn en worden ontwikkeld met het oog op optimale duurzaamheid voor het algemeen nut.

Ethiek van kunstmatige intelligentie en mogelijke schade veroorzaakt door AI-systemen

AI-ethiek en veiligheid moeten een prioriteit zijn bij het ontwerp en de implementatie van AI-systemen. AI-ethiek komt naar voren om individuele en maatschappelijke schade te vermijden die wordt veroorzaakt door verkeerd gebruik, misbruik, een slecht ontwerp of onbedoelde negatieve gevolgen van AI-systemen.

Volgens Dr.David Leslie, Ethics Theme Lead binnen het Public Policy Program en Ethics Fellow aan het Alan Turing Institute in Londen, Engeland, omvatten mogelijke schade veroorzaakt door AI-systemen de volgende:

  • AI-systemen: vooroordelen en discriminatie

Ontwerpers van AI-systemen kiezen de functies, statistieken en analytische structuren van de modellen die datamining mogelijk maken. Datagedreven technologieën, zoals kunstmatige intelligentie, kunnen dus mogelijk de vooroordelen en vooroordelen van hun ontwerper repliceren.

Datamonsters trainen en testen algoritmische systemen. Toch kunnen ze vaak onvoldoende representatief zijn voor de populaties waaruit ze conclusies trekken; dus het creëren van mogelijkheden voor bevooroordeelde en discriminerende resultaten als gevolg van een fout vanaf het begin wanneer de ontwerper de gegevens in de systemen invoert.

  • AI-systemen: ontkenning van individuele autonomie, verhaal en rechten

In het verleden waren AI-systemen die cognitieve functies automatiseren uitsluitend toe te schrijven aan verantwoordelijke menselijke agenten. Tegenwoordig maken AI-systemen beslissingen, voorspellingen en classificaties die van invloed zijn op burgers.

Er kunnen zich bepaalde situaties voordoen waarin dergelijke personen niet in staat zijn de partijen verantwoordelijk te houden voor de uitkomsten. Een van de meest voorkomende reacties van mensen om negatieve resultaten te rechtvaardigen, is het AI-systeem de schuld te geven, eraan toevoegend dat ze niets kunnen doen om de uitkomst te veranderen. Iets wat niet echt is.

Zo'n reactie is ronduit belachelijk, aangezien AI-systemen zijn ontworpen en geprogrammeerd door een menselijke ontwerper. Daarom is het een mens die een uitkomst kan corrigeren en veranderen die niet bevredigend is. Neem als voorbeeld een geval van verwondingen, of een negatief gevolg van een dergelijke kloof in aansprakelijkheid, die de autonomie kan schaden en de rechten van de getroffen individuen kan schenden.

  • AI-systemen: niet-transparante, onverklaarbare of niet te rechtvaardigen resultaten

In sommige gevallen kunnen modellen voor machinaal leren hun resultaten genereren door te werken op basis van hoog-dimensionale correlaties die de interpretatieve mogelijkheden van menselijk redeneren te boven gaan.

Dit zijn gevallen waarin de grondgedachte van algoritmisch geproduceerde uitkomsten die rechtstreeks van invloed zijn op beslissingsonderwerpen, voor die proefpersonen ondoorzichtig kan blijven. In sommige gebruikssituaties hoeft dit gebrek aan uitlegbaarheid niet al te veel problemen te veroorzaken.

In toepassingen waarin de verwerkte gegevens sporen van discriminatie, vooringenomenheid, ongelijkheid of oneerlijkheid kunnen bevatten, kan het gebrek aan duidelijkheid van het model echter zeer problematisch zijn.

  • AI-systemen: inbreuken op de privacy

AI-systemen vormen op twee manieren een bedreiging voor de privacy:

- Als resultaat van hun ontwerp- en ontwikkelingsprocessen

- Als gevolg van hun inzet

AI-projecten berusten op het structureren en verwerken van big data. Er worden enorme hoeveelheden persoonlijke gegevens verzameld, verwerkt en gebruikt om AI-technologieën te ontwikkelen. Vaker wel dan niet, worden big data vastgelegd en geëxtraheerd zonder de juiste toestemming van de betrokkene van de betrokkene. Bij enig gebruik van big data wordt vaak persoonlijke informatie onthuld (of loopt ze risico), waardoor de privacy van het individu in gevaar komt.

De inzet van AI-systemen kan de betrokkenen van de betrokkene richten, profileren of aanstoten zonder hun medeweten of toestemming. Het betekent dat dergelijke AI-systemen inbreuk maken op het vermogen van individuen om een ​​privéleven te leiden. Inbreuk op de privacy kan bijgevolg het recht schaden om doelen of levensplannen na te streven zonder ongekozen invloed.

  • AI-systemen: isolatie en desintegratie van sociale connectie

Het vermogen van AI-systemen om individuele ervaringen samen te stellen en digitale diensten te personaliseren, kan het leven van de consument en de dienstverlening verbeteren. Dit, wat een voordeel is als het goed wordt gedaan, maar er zijn potentiële risico's aan verbonden.

Dergelijke risico's zijn mogelijk niet zichtbaar of worden in het begin niet als risico's weergegeven. Overmatige automatisering kan echter mogelijk leiden tot een vermindering van de mens-op-mens-interactie, en daarmee zou het oplossen van problematische situaties op individueel niveau niet langer mogelijk zijn.

Algoritmisch ingeschakelde hyperpersonalisatie kan de klanttevredenheid verbeteren, maar beperkt onze blootstelling aan andere wereldbeelden dan de onze, en dit kan sociale relaties polariseren.

Sinds de tijd van de Griekse filosoof Plato hebben goedgeordende en samenhangende samenlevingen gebouwd op relaties van menselijk vertrouwen, empathie en wederzijds begrip. Naarmate kunstmatige-intelligentietechnologieën steeds vaker voorkomen, is het van het grootste belang dat deze relaties van menselijk vertrouwen, of empathie, of wederzijds begrip intact blijven.

  • AI-systemen: onbetrouwbare, onveilige of slechte resultaten

De implementatie en distributie van AI-systemen die onbetrouwbare, onveilige of slechte resultaten opleveren, kan het resultaat zijn van onverantwoord gegevensbeheer, nalatige ontwerpproductieprocessen of twijfelachtige implementatiemethoden. Dit kan dus direct leiden tot schade aan het welzijn van individuen en aan het algemeen welzijn.

Dergelijke resultaten kunnen ook het vertrouwen van het publiek in het verantwoord gebruik van maatschappelijk nuttige KI-technologieën ondermijnen. Bovendien kunnen ze schadelijke inefficiënties veroorzaken door beperkte middelen te besteden aan inefficiënte of zelfs schadelijke AI-technologieën.

Toegepaste ethiek van kunstmatige intelligentie

In zijn gids,Ethiek en veiligheid van kunstmatige intelligentie begrijpen: een gids voor het verantwoord ontwerp en de implementatie van AI-systemen in de publieke sector, exclusief ondersteund door het Alan Turing Institute Public Policy Program, schrijft Dr. David Leslie:

Als mensen dingen doen die intelligentie vereisen, houden we ze verantwoordelijk voor de nauwkeurigheid, betrouwbaarheid en deugdelijkheid van hun oordelen. Bovendien eisen we van hen dat hun acties en beslissingen worden ondersteund door goede redenen, en we houden ze verantwoordelijk voor hun eerlijkheid, billijkheid en redelijkheid in de manier waarop ze anderen behandelen. "

Volgens Marvin Minsky, een Amerikaanse cognitieve wetenschapper, mede-oprichter van het Massachusetts Institute of Technology AI-laboratorium, en een AI-pionier, is kunstmatige intelligentie de wetenschap om computers dingen te laten doen die intelligentie vereisen wanneer ze door mensen worden gedaan.

Het is deze standaarddefinitie die ons een idee geeft van welke motivatie heeft geleid tot de ontwikkeling van het vakgebied toegepaste ethiek van kunstmatige intelligentie.

Volgens dr.David Leslie is de noodzaak om principes te ontwikkelen die zijn toegesneden op het ontwerp en het gebruik van AI-systemen dat hun opkomst en groeiende macht om dingen te doen waarvoor intelligentie vereist is, een verschuiving heeft ingeluid van een breed scala aan cognitieve functies naar algoritmische processen, die zelf kunnen noch rechtstreeks verantwoordelijk, noch onmiddellijk aansprakelijk worden gesteld voor de gevolgen van hun gedrag.

Programma-gebaseerde machines, zoals AI-systemen, kunnen niet worden beschouwd als moreel verantwoordelijke agenten. Deze realiteit gaf ruimte voor het creëren van een discipline die de ethische breuk op het gebied van de toegepaste wetenschap van kunstmatige intelligentie kon opvangen.

Dit is precies wat de kaders voor AI-ethiek nu proberen te vullen. Eerlijkheid, verantwoordelijkheid, duurzaamheid en transparantie zijn principes die bedoeld zijn om de kloof te dichten tussen het nieuwe slimme agentschap van machines en hun fundamentele gebrek aan morele verantwoordelijkheid.

Aan de andere kant, wanneer mensen dingen doen die intelligentie vereisen, worden ze verantwoordelijk gehouden. Met andere woorden, op het huidige niveau waarop kunstmatige intelligentie actief is, zijn de mensen de enige verantwoordelijk voor hun op programma's gebaseerde creaties.

De implementatie en het ontwerp van kunstmatige-intelligentiesystemen moet ter verantwoording worden geroepen. Misschien kan algemene AI in de toekomst morele actoren worden met een toegekende morele verantwoordelijkheid.

Voorlopig moeten ingenieurs en ontwerpers van AI-systemen echter hun verantwoordelijkheid nemen en verantwoordelijk worden gehouden voor wat ze maken, ontwerpen en programmeren.


Bekijk de video: Big Data u0026 Ethiek, het blijft mensenwerk - Bart Stofberg (Augustus 2022).