Boydi kogemus pole teoreetiline. Ta töötas USA kaitseministeeriumi Ühise Tehisintellekti Keskuses (Joint Artificial Intelligence Center), kus tal tuli koordineerida AI-põhiste lahinguotsuste võimekust. Just seal sai talle selgeks, et suurim risk ei peitu mitte niivõrd algoritmides, kuivõrd selles, kuidas hakkavad inimesed nendega koostööd tegema. „Mind ei tee murelikuks mitte see, mida tehisintellekt suudab, vaid see, kuidas inimesed tehnoloogiaga suhestuvad ja seda kasutavad,“ rõhutas Boyd konverentsil.
Otsustamise kiirus ei ole alati eelis
Sõjalises mõtlemises räägitakse sageli nn otsustamise eelisest – soovist teha paremaid otsuseid ja viia need vastasest kiiremini ellu. Boyd võttis selle mõtteviisi ise kokku kujundliku väljendiga „masinakiirusel uudsed lahendused“. Tema sõnul peegeldab see ootust, et tehisintellekt suudab otsustamist oluliselt kiirendada, kuigi selle varjus võib jääda tagaplaanile küsimus, kas suurem kiirus tähendab ka sisuliselt paremaid otsuseid.
Boyd kirjeldas, kuidas kaasaegsetes konfliktides on kasutatud sihtmärkide tuvastamisel ennustavat analüütikat. Inimese ülesandeks jäi sageli vaid otsus kiiresti kinnitada, kuna süsteemi peeti piisavalt usaldusväärseks: „Kui süsteem töötab ootuspäraselt ja surve kiiresti tegutseda on suur, kipuvad inimesed ilma pikema kaalumiseta vajutama heakskiidu nuppu.“
Tema sõnul on tegu klassikalises mõttes kognitiivset koormust vähendava olukorraga: väsimus, ajasurve ja masina usaldamine suruvad inimese enda kriitilise mõtlemise tagaplaanile. „Masinate kasutuselevõtuga kaasneb automatiseerimiskalle – kalduvus usaldada masinat rohkem kui teist inimest. Kui sellele lisanduvad väsimus ja soov oma vaimset koormust vähendada, hakkab sõltuvus masinast kiiresti kasvama.“
Boyd tõdes, et otsustustarkvara seab ette raami, mille sees inimene üldse valikuid näeb. Kui süsteemi eeldused või andmed on kallutatud, hakkab masin otsust märkamatult suunama juba enne, kui inimene jõuab ise kõiki nüansse päriselt kaaluda.
Tema sõnul ei pruugi inimene ühel hetkel enam aru saada, miks ta mingeid otsuseid vastu võtab, sest ta tegutseb süsteemi soovituste põhjal.
„Mind ei tee murelikuks mitte see, mida tehisintellekt suudab, vaid see, kuidas inimesed tehnoloogiaga suhestuvad ja seda kasutavad.“
Boyd kirjeldas, kuidas kaasaegsetes konfliktides on kasutatud sihtmärkide tuvastamisel ennustavat analüütikat. Inimese ülesandeks jäi sageli vaid otsus kiiresti kinnitada, kuna süsteemi peeti piisavalt usaldusväärseks: Foto: Pexels
Miks masin ei tohi asendada inimest
Oma ettekandes viitas Boyd nn Move 37 efektile – umbes kümme aastat tagasi aset leidnud hetkele, mil Google’i tehisintellekt AlphaGo käis strateegiamängus Go (Aasiast pärit keerukas lauamäng) käigu, mis tundus maailmatasemel mängijale Lee Sedolile esmapilgul täiesti arusaamatu. Alles hiljem selgus, et tegu oli pika ja keeruka strateegia keskse võttega, mis viis masina võiduni. Just see hetk pani paljud sõjaväelased mõtlema, kas tehisintellekt suudaks tulevikus aidata vastast üllatada ka taolistes konfliktiolukordades, milles inimese loogika hätta jääb.
Boydi hinnangul eksitakse sageli, kui arvatakse, et tehisintellekt suudab võtta kiiresti üle inimliku mõtlemise kõige kesksemad osad. Tegelikkuses on palju lihtsam automatiseerida otsustamist toetavaid tegevusi – näiteks andmete töötlemist, kaartide koostamist või mustrite tuvastamist. Mida lähemale jõutakse otsuse sisule, seda keerulisem on masinale vastutust anda.
Boyd kasutas oma mõtte selgitamiseks kujundlikku vastandust: kentaur ja Minotauros. Kentauri mudelis juhib inimest masin, Minotaurose puhul on rollid vastupidised – masin „mõtleb“, inimene täidab käske: „Reaalses elus ei peaks me püüdlema ei ühe ega teise äärmuse poole. Küsimus pole selles, kas protsesse juhib inimene või masin, vaid selles, kuidas nendevahelist tasakaalu hoida ja teadlikult tegutseda.“
„Reaalses elus ei peaks me püüdlema ei ühe ega teise äärmuse poole. Küsimus pole selles, kas protsesse juhib inimene või masin, vaid selles, kuidas nendevahelist tasakaalu hoida ja teadlikult tegutseda.“
Boydi hinnangul eksitakse sageli, kui arvatakse, et tehisintellekt suudab võtta kiiresti üle inimliku mõtlemise kõige kesksemad osad. Tegelikkuses on palju lihtsam automatiseerida otsustamist toetavaid tegevusi – näiteks andmete töötlemist, kaartide koostamist või mustrite tuvastamist. Mida lähemale jõutakse otsuse sisule, seda keerulisem on masinale vastutust anda. Foto: TalTech
Kuidas ohjata masinasõltuvust
Boyd ei pakkunud masinasõltuvuse ohjamiseks välja küll ühtegi lihtsat lahendust, kuid tõi esile mitu põhimõtet, millele tuleks AI-põhiste otsustustugisüsteemide disainis mõelda.
Esiteks peaks süsteemid aitama inimesel tajuda, kui sõltuvus hakkab otsuste tegemisel liiga suureks kasvama. Teiseks peaks olema inimese ja masina vahelist suhet võimalik mõõta – näiteks jälgides, kui kiiresti kasutaja otsuseid kinnitab. Ning lõpuks peab inimesel säilima võimalus süsteemi tegutsemisse sekkuda, seadeid muuta või vajadusel otsustamise tempot teadlikult aeglustada. „Meil peab olema võimalus süsteemi muuta. Kui oled kurnatud ja kell on kolm öösel, peaks süsteem andma märku, kui toetud AI-tööriistale liiga palju.“
Kuigi Boydi näited pärinesid sõjalisest kontekstist, ulatus tema sõnum märksa kaugemale. Ta tõi paralleeli tsiviilvaldkonnast, viidates juhtumitele, mil juristid usaldasid väsimuse ja ajasurve tõttu pimesi keelemudeleid ning esitasid seetõttu kohtule kontrollimata või eksitavat infot. Boydi sõnul pole sellised vead enamasti pahatahtlikud, vaid sünnivad olukorras, mil inimese vaimne võimekus on ammendunud ning masin näib olevat kõige lihtsam lahendus. Just seetõttu tuleb süsteeme kujundada nii, et need ei soodustaks mõtlemise asendamist ning aitaksid inimesel oma sõltuvust masinast ära tunda ja seda vajadusel vähendada.
EstMil.tech 2026 avakõnes kõlas selge hoiatus: tehisintellekt ei muuda otsustamist iseenesest paremaks. Kui süsteemid teevad tegutsemise kiiremaks, kuid inimesel pole vaja enam otsuste iseloomu ja põhjuseid läbi mõelda, võib otsustamise mugavus hakata tasapisi asendama sisulist kaalutlemist. Boydi sõnum oli ühemõtteline – tehnoloogia arengust on olulisem see, kas inimene suudab säilitada uute tööriistade kõrval kriitilise mõtlemise ning jääda oma otsuste üle ise vastutama ning neid teadlikult kontrollima.
„Meil peab olema võimalus süsteemi muuta. Kui oled kurnatud ja kell on kolm öösel, peaks süsteem andma märku, kui toetud AI-tööriistale liiga palju.“