Kultuur

Tehisintellekti eksperdid kirjutasid alla avalikule kirjale, et kaitsta inimkonda masinate eest

 tehisintelgience-getty.jpg

Oleme aastakümnete kaugusel, et saaksime välja töötada sotsiopaatilise superarvuti, mis võiks inimkonda orjastada, kuid tehisintellekti eksperdid töötavad juba selle nimel, et hoida ära halvimat, kui masinad saavad inimestest targemaks.

AI-eksperdid üle maailma on allkirjastades avatud kirja Pühapäeval andis välja Future of Life Institute, mis lubab ohutult ja hoolikalt koordineerida valdkonna edusamme, et tagada, et see ei läheks inimkonna kontrolli alt välja. Osalejate hulgas on Briti tehisintellektiettevõtte Deep Mind kaasasutajad, mille Google ostis 2014. aasta jaanuaris; MIT professorid; ja eksperdid mõnest suurimast tehnoloogiakorporatsioonist, sealhulgas IBMi Watsoni superarvutimeeskonnast ja Microsoft Researchist.

'Võimalik kasu on tohutu, kuna kõik, mida tsivilisatsioonil on pakkuda, on inimese intelligentsuse tulemus... Soovitame laiendada uurimistööd, mille eesmärk on tagada, et üha võimekamad AI-süsteemid oleksid vastupidavad ja kasulikud: meie AI-süsteemid peavad tegema seda, mida me tahame. teha,' seisis kirjas osaliselt. Avatud kirjale lisatud uurimisdokument kirjeldab võimalikke lõkse ja soovitab juhiseid tehisintellekti arendamiseks.

Kiri tuleb pärast seda, kui eksperdid on hoiatanud üliintelligentsete masinate ohtude kohta. Näiteks eetikud muretsevad, kuidas isejuhtiv auto võib jalgratturite ja reisijate elusid kaaluda, kui see kokkupõrke vältimiseks kaldub. Kaks aastat tagasi ÜRO esindaja nõudis moratooriumi nn autonoomsete relvade katsetamise, tootmise ja kasutamise kohta, mis suudavad valida sihtmärke ja alustada rünnakuid ilma inimese sekkumiseta.



Kuulus füüsik Stephen Hawking ja Tesla Motorsi tegevjuht Elon Musk on samuti väljendanud oma muret tehisintellekti amokijooksu lubamise pärast. 'Võib ette kujutada, et selline tehnoloogia kavaldab finantsturge, leiutab inimuurijaid, manipuleerib üle inimjuhtidega ja arendab relvi, millest me isegi aru ei saa,' ütles Hawking artiklis, mille ta kirjutas mais. The Independent . 'Kui tehisintellekti lühiajaline mõju sõltub sellest, kes seda kontrollib, siis pikaajaline mõju sellest, kas seda saab üldse kontrollida.'

Musk säutsus augustis Twitteris: 'Peame tehisintellektiga olema ülimalt ettevaatlikud. Potentsiaalselt ohtlikum kui tuumarelvad.'

'Ma kaldun üha enam arvama, et peaks olema mingisugune regulatiivne järelevalve, võib-olla riiklikul ja rahvusvahelisel tasandil, et tagada, et me midagi väga rumalat ei teeks,' ütles ta. rääkis Massachusettsi Tehnoloogiainstituudi publikule oktoobris.

Future of Life Institute on ainult vabatahtlikele suunatud uurimisorganisatsioon, mille peamine eesmärk on leevendada inimtasandil inimtegevusest tingitud luure potentsiaalseid riske, mis võivad hiljem eksponentsiaalselt areneda. Selle asutasid hulgaliselt matemaatikuid ja informaatikaeksperte üle maailma, peamiselt Skype’i kaasasutaja Jaan Tallinn ja MIT professor Max Tegmark.

Pikaajaline plaan on lõpetada väljamõeldud düstoopiate käsitlemine puhta fantaasiana ja hakata tegelema võimalusega, et meie omast suurem intelligents võib ühel päeval hakata tegutsema oma programmeerimise vastu.