Hogyan tanítjuk a robotokat a rosszból? Hamarosan a probléma nem lesz hipotetikus - Emerging Tech - 2019

Nationalism vs. globalism: the new political divide | Yuval Noah Harari (Április 2019).

Anonim

A szerkesztő megjegyzése: A Digital Trends a WebVisions-szel, a nemzetközileg elismert formatervezéssel, technológiával és felhasználói tapasztalattal foglalkozó konferenciával partnerséget nyújtott a Douglas Rushkoff fényűzőnek az idei Portland, Oregon-i rendezvényre. Partnerkapcsolatunk részeként örömmel tölthetjük le a WebVisions webes oldalainak, a Word-ből való kiválasztását. Ezen a héten, a szerző közreműködője, Mark Wyner kíváncsi a mesterséges intelligencia tanulásáról. Élvez!

A Twitter elismerte, hogy felhasználói fiókjainak 23 millió (8, 5% -a) autonóm Twitterbots. Sok van ott, hogy növelje a termelékenységet, végezzen kutatásokat, vagy akár szórakoztató is legyen. Mégis sokan káros szándékkal jöttek létre. Mindkét esetben a botok ismertek voltak a megkérdőjelezhető etikával - talán azért, mert csupán a mesterséges intelligencia (AI) kisebb példányai.

Az emberek jelenleg sokkal kifinomultabb gépeket építenek, amelyek a monumentális skálákkal szemben etikus kérdésekkel szembesülnek. Még az emberek halandóságában is. Szóval hogyan tudnánk meggyőződni arról, hogy a megfelelő választást teszik, amikor eljön az idő?

Építsd be vagy tanítsd meg

Az etikában az emberiséggel szimbiotikus módon egybeeső önálló gépek sikeres építésének kulcsa az etika. És alapvetően kétféle módon lehet az etikát programozni a gépekbe:

Először keményen kódolhatja őket az operációs rendszerükbe. Az aggodalom itt az, hogy az etika szubjektív. A gép etikája függ az alkotó etikájától. De mi az emberek nem mindig igazodnak erkölcsünkhöz. Mi harcolunk a háborúk ellen az etikai különbségek felett. Tehát, amikor autonóm gépeket építünk etikusakká, a meglévő egyenlőtlenségek határain belül építünk.

Másodszor, megadhat néhány iránymutatást, majd hagyja, hogy a gép saját tapasztalata alapján saját etikát tanuljon. Ez a passzív megközelítés sok helyet hagy az erkölcsi félreértéseknek, attól függően, hogy milyen viselkedéseket figyeltek meg. Tekintsük a Microsoft Twitter AI-jének, Tay-nek a közelmúltbeli összeomlását, akit tréfáltak a rasszista zaklatások és a népirtás előmozdítására, az elfogadott etikai normálság hamis következtetése alapján.

A Georgia Tech csapat dolgozik az utóbbiakon, a kognitív rendszereket oktatja, hogy megtudja, hogyan viselkedjen társadalmilag elfogadható módon történetek olvasásával. A Quixote nevű jutalmazási rendszer segíteni fogja a kognitív rendszereket azon történetek főszereplőinek azonosításában, amelyeket a gépek használnak a saját értékeiknek az emberi lényekhez való igazításához. Nem világos, hogy a Microsoft által használt módszereket. De ha technikáik megelőlegeznének, mint a Georgia Tech oktatási rendszerében, messze vagyunk a mesterséges intelligencia etikájának megszilárdításában.

Etikus bénulás

Most mindez azon az elgondoláson alapul, hogy a számítógép akár az etikát is felfoghatja. Ahogy Alan Winfield a "Etikai robot felé" című tanulmányában bemutatja, amikor egy számítógép etikai paradoxonot tapasztal, az eredmény kiszámíthatatlan, gyakran bénító. Tanulmányában egy kognitív robotot (A robot) kérték, hogy mentse az "emberi" robotot (H-robot) a veszélytől. Amikor az A-robot csak egy H-robotot mentett el, a saját zűrzavarában megdermedt, és nem engedett semmit.

Van egy ősi filozófiai vita arról, hogy az etika értelem vagy érzelem. A modern pszichológusok között egyetértés van abban, hogy az etikus döntéshozatal mind a racionális, mind az érzelmi ítéleteket megköveteli. Ahogy Paul Thagard professzor egy témában megjegyzi ezt a témát: "az etikai ítéletek gyakran nagyon érzelmesek, amikor az emberek kifejezik erős jóváhagyását vagy a különböző cselekmények elutasítását. Akár racionális is, attól függ, hogy az érzelmek részét képező kognitív felmérés jól vagy rosszul teljesül-e. "

Következtetések

Tehát, ha a kognitív gépek nem rendelkeznek etikai kapacitással, ki felelős a törvény megsértéséért? Jelenleg senki sem tudja. Ryan Calo, a Washington Egyetem jogtudományi egyeteme megjegyzi: "a robotika először kapcsolja össze a fizikai sérülésekkel járó adatok promiszkuitását; a robotrendszerek olyan feladatokat látnak el, amelyeket előre nem lehet előrejelezni; és a robotok egyre inkább elhomályosítják a vonalat a személy és a műszer között. "

A jogalkotási folyamat nehézkes lassú, míg a technológia exponenciális gyorsasággal jár.

A bűncselekmények is komolyak lehetnek. Hollandia fejlesztője, Jeffry van der Gootnak meg kellett védenie magát - és a Twitterbotját -, amikor a rendőrök kopogtak az ajtón, megkérdezték a Twitter fiókjából származó halálos fenyegetést. Aztán ott van a Random Darknet Shopper; egy bevásárló botot, amelynek hetente 100 dollár a Bitcoinban, hogy vásároljon a Darkneten egy művészeti kiállításon. A svéd tisztségviselők nem voltak kíváncsiak, amikor megvásárolták az ecstasy-t, amit a művész bemutatott. ( Bár a művészi kifejezést támogatták, a kábítószereket nem vesztették el a kiállítás végéig. )

Mindkét esetben a hatóságok mindent megtettek a törvényen belül, de végül kimentették az emberi tulajdonosokat, mert kifejezetten vagy közvetlenül nem követett el bűncselekményeket. De vajon hogyan fordul elő, amikor egy ember lerázza az AI-t a rosszindulat szándékával?

Az ironikus valóság az, hogy feltárjuk, hogyan irányíthatjuk autonóm gépünket. És azon túl, hogy megkérdőjelezhető képességünk van rá, hogy beillesszük az etikát, gyakran magányosak az általános viselkedésük. A neurális hálózatok mögötti módszerek megvitatásakor a Google szoftvermérnök Alexander Mordvintsev kiderült: "… jóllehet ezek nagyon hasznos eszközök a jól ismert matematikai módszereken alapulnak, meglepő módon keveset értünk, miért működnek egyes modellek, mások pedig nem."

Folytassuk?

Mindent figyelembe véve, a jogalkotási folyamat lelassul, míg a technológia exponenciális gyorsulást tesz. Amint azt Vivek Wadhwa, a Singularity Egyetem magyarázza, "a törvények nem tudnak lépést tartani, mert a törvények alapvetően kodifikált etika. Hogy konszenzust alakítunk ki a társadalom részeként, hogy mi a jó és mi a rossz, és akkor válik a helyes, és mi a baj, és ez lesz a törvényes és az illegális. Így halad a progresszió. A legtöbb ilyen technológián nem döntöttük el, mi a jó vagy a rossz. "

Ha a törvény felzárkózik, akkor saját végzetünket írhatjuk. Mindez arról a robotról, hogy átveszi a világot? Talán csak tömegesen járnak el, amíg bőven be nem fékezünk fajunkat, hogy az autonóm lények kisebbségévé válunk. Sakk-matt.