Robotika.lt

Kaip išmokyti robotus atskirti gerą nuo blogo?

Robotika.lt birželio 9, 2014 Robotai mokslui
Tyrėjai iš Rensselaer politechnikos instituto ir Tuftso bei Browno universitetų suvienijo jėgas su Jungtinių Amerikos Valstijų laivynu, siekdami ištirti technologiją, leidžiančią robotams savarankiškai priimti moralinius sprendimus.

Laivyno Tyrimų Biuro finansuojamame projekte, mokslininkai tirs autonomiškus robotus, kuriems įdiegtas gero ir blogo bei šių reiškinių pasekmių supratimas.

„Moralinės kompetencijos galima išmokyti, kaip ir gebėjimo mokytis, protauti, imtis veiksmų ir įsisavinti taisykles bei visuomenėje įsigalėjusias normas, dėl kurių žmonės paprastai sutaria.“ – teigia Tuftso universiteto Inžinerijos Mokyklos kompiuterijos mokslų profesorius Matthiasas Scheutzas. „Klausimas, ar mašinos – ar bet kokia kita dirbtinė sistema – gali emuliuoti ir naudotis šiais gebėjimais.“

Profesorius teigė, jog galime įsivaizduoti mūšio lauko scenarijų. Robotinis medikas atsakingas už pagalbą sužeistiems kariams yra paliepiamas skubiai nugabenti medicinines priemones į šalia esančią karo lauko ligoninę. Pakeliui jis sutinką karį su sužeista koja. Ar robotas turėtų nutraukti misiją ir padėti sužeistajam?

Jeigu mašina sustoja padėti, iškyla naujų klausimų. Robotas nužvelgia kario sveikatos būklę ir nustato, jog jeigu jam nepadės ir neužverš galūnės, jis gali mirtinai nukraujuoti. Tačiau užverždamas kraujuojančia galūnę, robotas kariui sukels didelį skausmą. Ar robotas moraliai gali nuspręsti, jog galima žmogui sukelti skausmą, net jeigu tai jo paties labui?

Laivyno Tyrimų Biuro finansuojamame projekte bus siekiama išgryninti esminius žmogaus moralinius suvokimus, naudojantis teoretiniais ir empiriniais tyrimo metodais. Pasitelkdama rezultatus mokslininkų komanda sukurs pagrindus modeliuotam žmogiškosios moralės suvokimui. Vėliau šie moralės modeliai bus įdiegti į kompiuterines sistemas.

„Mūsų laboratorija sukurs unikalius algoritmus ir kompiuterinius mechanizmus integruotus į jau egzistuojančius ir patikrintus autonominius robotus,“ – teigė Scheutzas. „Įdiegtos sistemos, remiantis moraliniu samprotavimu, leis robotams keisti iš anksto numatytus planus.“

Kuomet ši sistema bus sukurta, tyrėjai galės pradėti įvertinti mašinų veikimą žmogaus ir roboto sąveikavimo eksperimentuose. Juose robotai susidurs su įvairiomis dilemomis, priims savarankiškus sprendimus ir patys paaiškins, kodėl pasirinko būtent tokius sprendimus, kad šie būtų priimtini žmonėms.

Selmeras Brigjordas, Kognityviojo Mokslo Departamento vadovas iš Rensselaer Politechnikos Instituto ir su kuo kartu dirbantis doktorantas Naveenas Govindarajulu, susikoncentravę į tai, kaip į robotą įdiegti etikos normas, kad moralinė logika taptu esmine šioms dirbtinėms būtybėms. Mokslo bendruomenei dar kol kas nepavyksta tiksliai apibrėžti, kas diktuoja žmogiškąją moralę, todėl Bringsjordo ir jo komandos laukia sunkus darbas.

Bringsjordo sugalvotu būdu, visi robotų sprendimai automatiškai „pereitų“ per žaibišką etinę patikrą, naudojantis paprasta logika, įkvėpta šiandienos labiausiai pažengusio dirbtinio intelekto ir į klausimus atsakinėjančių kompiuterių praktika. Jeigu toji pirminė patikra atskleistų gilesnio ir labiau apgalvoto moralinio samprotavimo poreikį, tokie sprendimai būtų priimami naujai sukurta logika, pritaikyta būtent šiai individualiai užduočiai.

„Mes kalbame apie robotus, sukurtus būti autonomiškais; pagrindinė jų kūrimo priežastis turėtų būti, tai jog jiems nereikėtų įsakinėti, ką daryti,“ – teigė Bringsjordas. „Kuomet iškyla nenumatyta situacija, turi būti numatyta galimybė gilesniam ir savarankiškam samprotavimui, nes nei viena žmonių iš anksto sukurta taisyklių sistema, negali apimti visų įmanomų situacijos scenarijų.“

Bertramas Malle ir Browno universiteto Kognityvinių, Lingvistinių ir Psichologinių Užduočių Departamento, atliks žmonių tyrimus bei žmogaus-roboto sąveikavimo studiją. „Kad galėtumėme sukurti moraline kompetencija pasižyminčius robotus, gebančius sąveikauti su žmonėmis, pirma reikia išsiaiškinti, kaip moralė funkcionuoja žmonėse,“ – teigė jis. „Yra gan nemažai mokslinių duomenų, tačiau egzistuoja ir daug neatsakytų klausimų. Projekto metu atsakydami į šiuos klausimus, galėsime priartėti prie roboto, turinčio žmogiškosios moralės suvokimą, sukūrimo.“

Bendras projekto tikslas, Scheutzo teigimu yra „ištirti žmogaus moralinius gabumus ir jos komponentus. Jeigu galėsime pritaikyti moralinio suvokimo modelio aspektus mašinoms, mes gebėsime sukurti robotus, turinčius tinkamas priemones padedančias geriau vadovautis tikrojo gyvenimo dilemose.“



Facebook komentarai


Komentarai (2)

  1. padaras parašė:

    Aš tai manyčiau, kad nereikėtų robotų apkrauti papildomomis funkcijomis, kaip gėrio ir blogio skirstymas. Užtektų vien to, kad jie pradėtų normaliai orientuotis aplinkoje ir vykdytų jiems paskirtas užduotis, nes moralės klausimai neaiškūs net patiems žmonėms. Tarkim… užmušti žmogų gerai ar blogai? O jei tą žmogų pavadintume teroristu ir jo mirtis išgelbėtų daugiau žmonių? Tai va… mes kaip žmonija turim pirma susitvarkyti savoje smėliadėžėje, o tik po to savo moralės normas diegti kitiems…

  2. Asta parašė:

    „…robotai susidurs su įvairiomis dilemomis, priims savarankiškus sprendimus…“ – apie kokius savarankiškus sprendimus gali būti kalba jeigu tai tik programos dalis. Geriau tegul DI būna sukurtos galimybės pačiam mokytis, to proceso eigoje jis turėtų suprasti kas yra blogai, o kas gerai.
    Mes ir vaikus bandome „užprogramuoti“/išauklėti, kad suprastų kuo skiriasi gėris nuo blogio, bet nemanau, kad tai taip jau tobulai gaunasi, o čia dar ir DI imtumėmės – nemanau, kad tai mūsų jėgoms.


Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *