Kes teeb lahinguväljal otsuse – inimene või algoritm?

02.02.2026
Kes teeb lahinguväljal otsuse – inimene või algoritm?. 02.02.2026. Paneeldiskussioonist võtsid osa Rootsi Kaitseülikooli sõjaväeõppejõud Peter Bovet Emanuel, TalTechi Tarkvarateaduste instituudi professor ja tehisaruekspert Tanel Tammet, Leitnantkolonel ja Madalmaade kaitseministeerium, andmeteaduse tippkeskuse koordinaator Herwin Meerveld ning Eesti kaitseväe major ning tulevikuvõime ja innovatsiooni väejuhatuse ülema asetäitja innovatsiooni alal Janar Pekarev. Kui tempo hakkab juhtima otsust Mõttevahetus algas otsekohese küsimusega: kas tehisintellekt muudab pigem sõjaliste otsuste tempot või sisu? Sellest võrsus kiiresti järgmine küsimus: milline on kiireneva otsustustsükli praktiline tähendus – ja mis juhtub siis, kui tempo hakkab dikteerima otsustamist ennast? Peter Bovet Emanueli hinnangul on tehisintellekti mõju juba praegu tunda. Otsused sünnivad kiiremini, eriti taktikalises ja operatiivses plaanis. Ent kiirus pole iseeneslik väärtus. Kui tempot teadlikult ei ohjata, võib otsustamine taanduda lakkamatuks reageerimiseks. „Otsustamise tempo kiireneb ja kusagil selles otsuste spiraalis tuleb meil teadlikult tempot maha võtta – muidu ei jää ruumi millekski muuks kui aina kiiremateks otsusteks,“ ütles Emanuel. See tähendab, et osa otsustusõigusest liigub paratamatult masinatele. Küsimus on, kuidas nihutada seda õigust nii, et inimene protsessis tahaplaanile ei kaoks. Herwin Meerveldi sõnul ei kruvi sõjategevuse tempot üles mitte tehisaru, vaid  juba niigi kiire ja ettearvamatu keskkond ajendab selles tegutsevaid inimesi tehnoloogilist tuge otsima. Praeguste konfliktide dünaamikas ei pruugi inimene enam suuta otsustusprotsessi iga etapiga kaasas püsida. Seetõttu on AI kasutuselevõtt Meerveldi hinnangul vältimatu – olgugi et inimest, algoritmi ja nende koosmõju tuleb vaadata ühe tervikuna. Keda usaldada – inimest või masinat? Mil määral peaks aga väejuht tehisintellekti usaldama? Tanel Tammeti meelest tuleb suhtuda tehisintellekti nagu inimestesse – seda ei saa pimesi usaldada. Probleem tekib siis, kui inimene võtab küll otsustusahelast osa, ent tal pole enam aega ega võimalust sellesse sekkuda. „Taolises olukorras on kaks võimalust – kas säilitad ise pideva kontrolli või lased kontrollist suuresti lahti. Tihti ütleb tehisaru ise, et ta ei saa hakkama, palun võta üle,“ selgitas Tammet, võrreldes olukorda automaatse parkimisabiga. See tähendab, et süsteem ei tohi jagada üksnes soovitusi, vaid peab ühtlasi oskama ausalt märku anda, millal tema piir kätte jõuab. Meerveldi sõnul on tehisintellekt mõeldud pigem reageerima sõjategevuse kiirenenud tempole, mille puhul ei suuda inimene alati otsustusprotsessidega kaasas püsida. Seetõttu tuleb arendada sellist tehisintellekti, mis suudab näidata ühtaegu üles nii tõhusust kui ka vastutustundlikkust. Oluline pole niivõrd tehisaru umbusaldada, kuivõrd mõista süsteemi võimekust ja piire ning käsitleda seda osana tervikust, milles inimene ja tehnoloogia peavad koos toimima. „Otsustamise tempo kiireneb ja kusagil selles otsuste spiraalis tuleb meil teadlikult tempot maha võtta – muidu ei jää ruumi millekski muuks kui aina kiiremateks otsusteks.” Kas tehisintellekt võib otsustada elu ja surma üle? Arutelu muutus teravamaks, kui Janar Pekarev tõstatas küsimuse jõukasutamise delegeerimisest masinatele. Tema väitel on tapmine iseenesest primitiivne ja tehniliselt lihtne tegevus – keeruline pole mitte sihtmärki hävitada, vaid otsustada, millal ja kelle vastu jõudu kasutada. Ta küsis kaaspanelistidelt otse: mida see õieti tähendab, kui jõukasutamine masinatele delegeeritakse? Kas oleme valmis andma süsteemidele õiguse võtta vastu sihtmärgistamise ja tuleavamise otsuseid? Ning milline on kõige halvem stsenaarium, mis sellise sammu puhul pähe tuleb? Meerveld hoiatas, et arutelu ei tohiks taandada üksnes küsimusele, kes vajutab päästikule, sest sõjaline otsustamine pole olemuslikult vaid inimeste tapmine. Tema sõnul hõlmab sõjapidamine palju enamat – logistikat, kaitseplaneerimist, manöövreid ja eskalatsiooni ohjamist. Kui suunata sõja mõtestamise fookus üksnes surmavale jõule, jätab see varju suure osa tegelikust otsustusruumist. Bovet Emanuel märkis, et viimase kahekümne aasta kogemus – eriti terrorismivastaste operatsioonide käigus kogetu ja kogutu – on moonutanud arusaama sihtmärgistamisest liiga kitsaks ja isikukeskseks. Avalikus debatis seostatakse sihtmärke eelkõige inimestega, kuigi tegelikkuses on sihtmärkide kategooriaid viis, ning vaid üks neist puudutab otseselt isikuid. Ülejäänud hõlmavad näiteks juhtimissõlmi, taristut, relvasüsteeme või logistilisi objekte. Emanueli sõnul võib tehisintellekt osutuda teatud olukordades inimesest isegi erapooletumaks: „AI võib olla mõnel juhul isegi neutraalsem – see ei otsi kättemaksu ega lase mõjutada oma otsust emotsioonidel.“ Samas rõhutas Emanuel, et kõik sõltub kontekstist: eksistentsiaalses sõjas hinnatakse riske, proportsionaalsust ja vastutust paratamatult teistsuguses valguses kui piiratud konflikti puhul. „AI võib olla mõnel juhul isegi neutraalsem – see ei otsi kättemaksu ega lase mõjutada oma otsust emotsioonidel.“ Kvaliteedi mõõdikud Kui otsuste tegemisel kasutatakse tehisintellekti, tekib paratamatult küsimus: mille järgi hinnata selliste otsuste kvaliteeti? Meerveldi sõnul tuleb esmalt kokku leppida, mida sõjalises kontekstis üldse „heaks otsuseks“ pidada. See on ilma tehisintellektitagi keeruline küsimus. Alles konsensusliku määratluse taustal oleks võimalik rääkida tehnilistest kriteeriumidest – pärisprotsesse ennetavast testimisest, valideerimisest ja süsteemi töökindluse kontrollist. Tammeti ettevaatlikuma hinnangu põhjal kasutatakse militaarvaldkonnas tehisintellekti praegu veel piiratud määral, mistõttu on raske tehisarutoega otsuste kvaliteeti millegi muuga süsteemselt võrrelda. Bovet Emanuel tõi vastukaaluks näite Rootsi ja Norra ühiselt õppuselt, mille käigus osutus AI-põhine planeerimistööriist inimkasutajatest tõhusamaks. Tema sõnul ei saa kvaliteeti taandada pelgalt paremuse argumendile: „Küsimus pole ainult selles, kas otsus on parem – vaid ka selles, kas otsus on kiirem, täpsem, kas see vähendab kognitiivset koormust või parandab töökindlust.“ Kõikidele neile mõõdikutele tuleks leida tema sõnul selge sõnastus, enne kui süsteemi üldse arendama hakata. Tehisaru-aegne allianss Arutelu lõpus liikus fookus NATO tasandile: kas allianss suudab lõimida tehisintellekti oma otsustusprotsessidesse, kuigi liikmesriikidel on erinevad doktriinid, andmed ja õigusruumid? Pekarev tõi esile ühilduvuse probleemi – eri keskkondades treenitud mudelid ei pruugi koos toimida. Tegu pole pelgalt tehnilise detailiga. Meerveldi sõnul ei seisne peamine takistus tehnoloogias, vaid poliitilises tahtes. Lähiajal tasub rakendada tehisaru seal, kus toimib juba andmevahetus. Pikemas vaates võib tõusta kasu lahendustest, mis võimaldavad arendada riikidel ühiseid süsteeme, ilma et neil tuleks omavahel tundlikke andmeid jagada. Küsimusele, kas AI võiks kiirendada ka NATO poliitilisi otsustusprotsesse, näiteks viienda artikli rakendamist, anti selgelt eitav vastus. „Artikkel 5 on poliitiline otsus ja seda ei tohiks sõjalise tehisaruga segi ajada,“ rõhutas Meerveld. Kokkuvõttes jäi kõlama mõte, mille kohaselt pole tehisintellekt sõjalise otsustamise kontekstis mingi imerelv, mis suudaks asendada inimesi. See on tööriist, mis toob teravalt esile juba olemasolevad jõujooned: kiiruse ja vastutuse, tõhususe ja legitiimsuse, tehnoloogia ja poliitika vahelised pinged. Küsimus pole selles, kas tehisaru tuleb – see on juba kohal –, vaid selles, kuidas tagada, et inimene jääks edaspidigi otsustamise keskmesse. „Artikkel 5 on poliitiline otsus ja seda ei tohiks sõjalise tehisaruga segi ajada.“
TalTechi kaaskorraldatud kaitsekonverentsi EstMil.tech lõpetas paneeldiskussioon, millest õtsid osa  Rootsi Kaitseülikooli sõjaväeõppejõud Peter Bovet Emanuel, TalTechi Tarkvarateaduste instituudi professor ja tehisaruekspert Tanel Tammet, Leitnantkolonel ja Madalmaade kaitseministeerium, andmeteaduse tippkeskuse koordinaator Herwin Meerveld ning Eesti kaitseväe major ning tulevikuvõime ja innovatsiooni väejuhatuse ülema asetäitja innovatsiooni alal Janar Pekarev. Foto: EstMil.Tech

TalTechi kaaskorraldatud kaitsekonverentsi EstMil.tech lõpetas paneeldiskussioon, millest õtsid osa  Rootsi Kaitseülikooli sõjaväeõppejõud Peter Bovet Emanuel, TalTechi Tarkvarateaduste instituudi professor ja tehisaruekspert Tanel Tammet, Leitnantkolonel ja Madalmaade kaitseministeerium, andmeteaduse tippkeskuse koordinaator Herwin Meerveld ning Eesti kaitseväe major ning tulevikuvõime ja innovatsiooni väejuhatuse ülema asetäitja innovatsiooni alal Janar Pekarev. Foto: EstMil.Tech

TalTechi kaaskorraldatud kaitsekonverentsi EstMil.tech sisukamate arutelude hulka kuulus paneeldiskussioon, mille käigus heitsid eri riikide ja erinevate taustadega kaitseeksperdid pilgu tehisintellekti sõjalisele rollile ja potentsiaalile. Küsimus oli lihtne, ent terav: kas ja mil määral muudab AI lahinguväljal otsuseid?

Paneeldiskussioonist võtsid osa Rootsi Kaitseülikooli sõjaväeõppejõud Peter Bovet Emanuel, TalTechi Tarkvarateaduste instituudi professor ja tehisaruekspert Tanel Tammet, Leitnantkolonel ja Madalmaade kaitseministeerium, andmeteaduse tippkeskuse koordinaator Herwin Meerveld ning Eesti kaitseväe major ning tulevikuvõime ja innovatsiooni väejuhatuse ülema asetäitja innovatsiooni alal Janar Pekarev.

Kui tempo hakkab juhtima otsust

Mõttevahetus algas otsekohese küsimusega: kas tehisintellekt muudab pigem sõjaliste otsuste tempot või sisu? Sellest võrsus kiiresti järgmine küsimus: milline on kiireneva otsustustsükli praktiline tähendus – ja mis juhtub siis, kui tempo hakkab dikteerima otsustamist ennast?

Peter Bovet Emanueli hinnangul on tehisintellekti mõju juba praegu tunda. Otsused sünnivad kiiremini, eriti taktikalises ja operatiivses plaanis. Ent kiirus pole iseeneslik väärtus. Kui tempot teadlikult ei ohjata, võib otsustamine taanduda lakkamatuks reageerimiseks.

„Otsustamise tempo kiireneb ja kusagil selles otsuste spiraalis tuleb meil teadlikult tempot maha võtta – muidu ei jää ruumi millekski muuks kui aina kiiremateks otsusteks,“ ütles Emanuel. See tähendab, et osa otsustusõigusest liigub paratamatult masinatele. Küsimus on, kuidas nihutada seda õigust nii, et inimene protsessis tahaplaanile ei kaoks.

Herwin Meerveldi sõnul ei kruvi sõjategevuse tempot üles mitte tehisaru, vaid  juba niigi kiire ja ettearvamatu keskkond ajendab selles tegutsevaid inimesi tehnoloogilist tuge otsima. Praeguste konfliktide dünaamikas ei pruugi inimene enam suuta otsustusprotsessi iga etapiga kaasas püsida. Seetõttu on AI kasutuselevõtt Meerveldi hinnangul vältimatu – olgugi et inimest, algoritmi ja nende koosmõju tuleb vaadata ühe tervikuna.

Keda usaldada – inimest või masinat?

Mil määral peaks aga väejuht tehisintellekti usaldama? Tanel Tammeti meelest tuleb suhtuda tehisintellekti nagu inimestesse – seda ei saa pimesi usaldada.

Probleem tekib siis, kui inimene võtab küll otsustusahelast osa, ent tal pole enam aega ega võimalust sellesse sekkuda. „Taolises olukorras on kaks võimalust – kas säilitad ise pideva kontrolli või lased kontrollist suuresti lahti. Tihti ütleb tehisaru ise, et ta ei saa hakkama, palun võta üle,“ selgitas Tammet, võrreldes olukorda automaatse parkimisabiga. See tähendab, et süsteem ei tohi jagada üksnes soovitusi, vaid peab ühtlasi oskama ausalt märku anda, millal tema piir kätte jõuab.

Meerveldi sõnul on tehisintellekt mõeldud pigem reageerima sõjategevuse kiirenenud tempole, mille puhul ei suuda inimene alati otsustusprotsessidega kaasas püsida. Seetõttu tuleb arendada sellist tehisintellekti, mis suudab näidata ühtaegu üles nii tõhusust kui ka vastutustundlikkust.

Oluline pole niivõrd tehisaru umbusaldada, kuivõrd mõista süsteemi võimekust ja piire ning käsitleda seda osana tervikust, milles inimene ja tehnoloogia peavad koos toimima.

„Otsustamise tempo kiireneb ja kusagil selles otsuste spiraalis tuleb meil teadlikult tempot maha võtta – muidu ei jää ruumi millekski muuks kui aina kiiremateks otsusteks.”

Mil määral peaks aga väejuht tehisintellekti usaldama? Tanel Tammeti meelest tuleb suhtuda tehisintellekti nagu inimestesse – seda ei saa  pimesi usaldada. Probleem tekib siis, kui inimene võtab küll otsustusahelast osa, ent tal pole enam aega ega võimalust sellesse sekkuda. Foto: ChatGPT

Mil määral peaks aga väejuht tehisintellekti usaldama? Tanel Tammeti meelest tuleb suhtuda tehisintellekti nagu inimestesse – seda ei saa  pimesi usaldada. Probleem tekib siis, kui inimene võtab küll otsustusahelast osa, ent tal pole enam aega ega võimalust sellesse sekkuda. Foto: ChatGPT

Kas tehisintellekt võib otsustada elu ja surma üle?

Arutelu muutus teravamaks, kui Janar Pekarev tõstatas küsimuse jõukasutamise delegeerimisest masinatele. Tema väitel on tapmine iseenesest primitiivne ja tehniliselt lihtne tegevus – keeruline pole mitte sihtmärki hävitada, vaid otsustada, millal ja kelle vastu jõudu kasutada.

Ta küsis kaaspanelistidelt otse: mida see õieti tähendab, kui jõukasutamine masinatele delegeeritakse? Kas oleme valmis andma süsteemidele õiguse võtta vastu sihtmärgistamise ja tuleavamise otsuseid? Ning milline on kõige halvem stsenaarium, mis sellise sammu puhul pähe tuleb?

Meerveld hoiatas, et arutelu ei tohiks taandada üksnes küsimusele, kes vajutab päästikule, sest sõjaline otsustamine pole olemuslikult vaid inimeste tapmine. Tema sõnul hõlmab sõjapidamine palju enamat – logistikat, kaitseplaneerimist, manöövreid ja eskalatsiooni ohjamist. Kui suunata sõja mõtestamise fookus üksnes surmavale jõule, jätab see varju suure osa tegelikust otsustusruumist.

Bovet Emanuel märkis, et viimase kahekümne aasta kogemus – eriti terrorismivastaste operatsioonide käigus kogetu ja kogutu – on moonutanud arusaama sihtmärgistamisest liiga kitsaks ja isikukeskseks. Avalikus debatis seostatakse sihtmärke eelkõige inimestega, kuigi tegelikkuses on sihtmärkide kategooriaid viis, ning vaid üks neist puudutab otseselt isikuid. Ülejäänud hõlmavad näiteks juhtimissõlmi, taristut, relvasüsteeme või logistilisi objekte.

Emanueli sõnul võib tehisintellekt osutuda teatud olukordades inimesest isegi erapooletumaks: „AI võib olla mõnel juhul isegi neutraalsem – see ei otsi kättemaksu ega lase mõjutada oma otsust emotsioonidel.“ Samas rõhutas Emanuel, et kõik sõltub kontekstist: eksistentsiaalses sõjas hinnatakse riske, proportsionaalsust ja vastutust paratamatult teistsuguses valguses kui piiratud konflikti puhul.

„AI võib olla mõnel juhul isegi neutraalsem – see ei otsi kättemaksu ega lase mõjutada oma otsust emotsioonidel.“

Arutelu muutus teravamaks, kui Janar Pekarev (vasakul) tõstatas küsimuse jõukasutamise delegeerimisest masinatele. Tema väitel on tapmine iseenesest primitiivne ja tehniliselt lihtne tegevus – keeruline pole mitte sihtmärki hävitada, vaid otsustada, millal ja kelle vastu jõudu kasutada.

Arutelu muutus teravamaks, kui Janar Pekarev (vasakul) tõstatas küsimuse jõukasutamise delegeerimisest masinatele. Tema väitel on tapmine iseenesest primitiivne ja tehniliselt lihtne tegevus – keeruline pole mitte sihtmärki hävitada, vaid otsustada, millal ja kelle vastu jõudu kasutada.

Kvaliteedi mõõdikud

Kui otsuste tegemisel kasutatakse tehisintellekti, tekib paratamatult küsimus: mille järgi hinnata selliste otsuste kvaliteeti? Meerveldi sõnul tuleb esmalt kokku leppida, mida sõjalises kontekstis üldse „heaks otsuseks“ pidada. See on ilma tehisintellektitagi keeruline küsimus. Alles konsensusliku määratluse taustal oleks võimalik rääkida tehnilistest kriteeriumidest – pärisprotsesse ennetavast testimisest, valideerimisest ja süsteemi töökindluse kontrollist.

Tammeti ettevaatlikuma hinnangu põhjal kasutatakse militaarvaldkonnas tehisintellekti praegu veel piiratud määral, mistõttu on raske tehisarutoega otsuste kvaliteeti millegi muuga süsteemselt võrrelda.

Bovet Emanuel tõi vastukaaluks näite Rootsi ja Norra ühiselt õppuselt, mille käigus osutus AI-põhine planeerimistööriist inimkasutajatest tõhusamaks. Tema sõnul ei saa kvaliteeti taandada pelgalt paremuse argumendile: „Küsimus pole ainult selles, kas otsus on parem – vaid ka selles, kas otsus on kiirem, täpsem, kas see vähendab kognitiivset koormust või parandab töökindlust.“ Kõikidele neile mõõdikutele tuleks leida tema sõnul selge sõnastus, enne kui süsteemi üldse arendama hakata.

Tehisaru-aegne allianss

Arutelu lõpus liikus fookus NATO tasandile: kas allianss suudab lõimida tehisintellekti oma otsustusprotsessidesse, kuigi liikmesriikidel on erinevad doktriinid, andmed ja õigusruumid? Pekarev tõi esile ühilduvuse probleemi – eri keskkondades treenitud mudelid ei pruugi koos toimida. Tegu pole pelgalt tehnilise detailiga.

Meerveldi sõnul ei seisne peamine takistus tehnoloogias, vaid poliitilises tahtes. Lähiajal tasub rakendada tehisaru seal, kus toimib juba andmevahetus. Pikemas vaates võib tõusta kasu lahendustest, mis võimaldavad arendada riikidel ühiseid süsteeme, ilma et neil tuleks omavahel tundlikke andmeid jagada.

Küsimusele, kas AI võiks kiirendada ka NATO poliitilisi otsustusprotsesse, näiteks viienda artikli rakendamist, anti selgelt eitav vastus. „Artikkel 5 on poliitiline otsus ja seda ei tohiks sõjalise tehisaruga segi ajada,“ rõhutas Meerveld.

Kokkuvõttes jäi kõlama mõte, mille kohaselt pole tehisintellekt sõjalise otsustamise kontekstis mingi imerelv, mis suudaks asendada inimesi. See on tööriist, mis toob teravalt esile juba olemasolevad jõujooned: kiiruse ja vastutuse, tõhususe ja legitiimsuse, tehnoloogia ja poliitika vahelised pinged.

Küsimus pole selles, kas tehisaru tuleb – see on juba kohal –, vaid selles, kuidas tagada, et inimene jääks edaspidigi otsustamise keskmesse.

„Artikkel 5 on poliitiline otsus ja seda ei tohiks sõjalise tehisaruga segi ajada.“