AI grote kanonnen beloven geen autonome "killer-robots" te ontwikkelen

Anonim

AI grote kanonnen beloven geen autonome 'killer-robots' te ontwikkelen

Robotics

Michael Irving

25 juli 2018

Honderden bedrijven en duizenden mensen uit de AI-sector hebben beloofd geen dodelijke autonome wapens te ontwikkelen (Credit: chagpg / Depositphotos)

Het idee van moordenaarsrobots bevindt zich momenteel nog steeds in sciencefiction, maar het is behoorlijk verontrustend om te beseffen dat experts in kunstmatige intelligentie het in de nabije toekomst als een echte mogelijkheid beschouwen. Na jaren een verzoekschrift bij de Verenigde Naties te hebben ingediend om actie te ondernemen tegen bewapende KI, heeft het Future of Life Institute (FLI) nu het heft in eigen handen genomen, met duizenden onderzoekers, ingenieurs en bedrijven in de KI-industrie die beloven niet de ontwikkeling van autonome moordmachines op enigerlei wijze.

In 2015 presenteerde de FLI een open brief aan de VN en drong er bij de organisatie op aan een verbod op te leggen aan de ontwikkeling van dodelijke autonome wapensystemen (LAWS). De brief werd ondertekend door meer dan 1.000 robotica-onderzoekers en prominente wetenschappers, zoals Elon Musk en Stephen Hawking. Twee jaar later stuurden de FLI en veel van dezelfde ondertekenaars een follow-up, omdat de gesprekken voortdurend stopten.

Na nog een jaar van niets doen hebben deze industrieleiders nu een meer directe benadering gekozen die de inbreng van de VN niet vereist. Duizenden mensen hebben nu een belofte ondertekend waarin ze verklaren dat we kiezen om onszelf op een hoog niveau te houden: we zullen niet deelnemen aan, noch de ontwikkeling, productie, handel of het gebruik van dodelijke, autonome wapens ondersteunen. "

Ondertekenaars van deze tijd zijn 160 AI-gerelateerde bedrijven en organisaties en meer dan 2.400 personen. Onder de rangen bevinden zich Google DeepMind, ClearPath Robotics, de European Association for AI, de XPRIZE Foundation, Silicon Valley Robotics, University College London, en mensen zoals Elon Musk, Jeffrey Dean van Google Research en Alex Sobel, lid van het Britse parlement.

De specifieke technologie waar de groep tegen is, omvat met wapens beveiligde AI-systemen die mensen volledig autonoom kunnen identificeren, richten en doden. Dat zou niet gaan over dingen als militaire drones, die menselijke piloten kunnen gebruiken om doelen op afstand te identificeren en te doden. Hoewel dat klinkt als een vreemd onderscheid om te maken, argumenteert de groep dat het laatste geval nog steeds een menselijk 'in de lus' heeft, als een morele en ethische filter voor de handeling.

"Wij, ondergetekenden, zijn het erover eens dat de beslissing om een ​​mensenleven te nemen nooit mag worden gedelegeerd aan een machine, " luidt de officiële verklaring. "Er is een morele component aan deze positie, dat we niet mogen toestaan ​​dat machines beslissingen nemen die levenden zijn waarvoor anderen - of niemand - schuldig zijn. "

Wanneer deze moordmachines worden gekoppeld aan gegevens- en surveillanceplatformen, zo vervolgt de verklaring, kunnen de WETTEN krachtige instrumenten worden voor geweld en onderdrukking, in essentie door de handeling van het nemen van mensenlevens te gemakkelijk, risicoloos en onverklaarbaar te maken. Vooral problematisch is het potentieel voor die apparaten om in verkeerde handen terecht te komen via de zwarte markt.

Het doel van de belofte is om bedrijven en mensen te 'schamen' om te ondertekenen. Als steeds meer van de grote spelers aan boord springen, zullen degenen die dat niet doen waarschijnlijk door hun collega's en klanten onder de loep worden genomen totdat ze zich ook aanmelden.

Of het nu wel of niet zo uitkomt, het is op zijn minst bemoedigend om te zien dat er babystapjes worden gemaakt naar het doel van een moordenaarloze robotvrije toekomst. De VN zullen de volgende vergadering over Wetten in augustus houden.

Bron: Future of Life Institute

Honderden bedrijven en duizenden mensen uit de AI-sector hebben beloofd geen dodelijke autonome wapens te ontwikkelen (Credit: chagpg / Depositphotos)