Töökohad on ohus: tehisintellekt hakkab ettevõtteid nõustama

15.02.2024
Töökohad on ohus: tehisintellekt hakkab ettevõtteid nõustama. 15.02.2024. 2023. aastal toimus tehisintellekti kasutamises plahvatus ning ettevõtted hakkasid otsima võimalusi, kuidas seda oma teenistusse rakendada – kes hakkas arendama äppe ja kes hakkas tehisintellekti abil tekste looma, kes ChatGPT käest nõu küsima. Ülikoolid asusid neid protsesse uurima. TalTechis valmis tehisintellekti promptimise (skripti) kasutamise teemal bakalaureusetöö (Martin Garbuz, “Inimloetavate aruannete genereerimine töötajate tagasiside andmete põhjal Motichecki näitel”, juhendaja Toomas Lepikult), milles uuriti, kas ja kuidas saab tehniliselt luua inimesele arusaadavas keeles robot-vastaja, kes analüüsiks töötajate antud tagasisidet, et teha selle pealt juhtimisotsuseid. Bakalaureusetöö uurimuses analüüsiti ChatGPT antud vastuste sidumist Motichek lahendusega juhtimisotsuste tegemiseks. Tegemist on võimalusega automatiseerida ning  ökonomiseerida nõustamist – kui inimesel võib läbiviidud küsitlusele vastuste ja tulemuste edastamiseks kuluda nädalaid või kuid, siis Motichek annaks soovitusi ja analüüse jooksvalt, andmete tekkimise käigus. See võimaldaks ettevõttel väljakutsetele otsekohe reageerida. Esmase tagasiside põhjal võib öelda, et eksperiment oli tehniliselt edukas. Pikem vastus avab aga mitmeid juhtimist puudutavaid eetilisi väljakutseid, mida arutleme edasi koos eetiku Aive Pevkuri ja ChatGPT-ga. Milliseid ohte peidab endas juhtimise nõustamise andmine robotile? ChatGPT: Robotid vajavad juurdepääsu suurele hulgale andmetele, et pakkuda asjakohast nõustamist. See võib kaasa tuua andmete turvalisuse probleeme, eriti kui need sisaldavad tundlikke ettevõtteandmeid või isikuandmeid. Juhtimisrobotid võivad raskustes olla konteksti mõistmisega ja võivad anda nõu, mis ei arvesta konkreetset olukorda ega inimtegurit. Tekkida võivad tehnilised probleemid, mis võivad põhjustada nõustamise ebatäpsusi või isegi ohtlikke soovitusi. Juhtimisrobotite kasutamine võib kaasa tuua eetilisi dilemmasid, eriti seoses privaatsuse, vastutuse ja otsuste läbipaistvusega. Aive: Selles küsimuses peitub huvitav vaade juhtimise olemusele. Kui juhtimist on võimalik taandada piisava sisendi põhjal õigete järelduste tegemisele, siis võiks robot teha häid juhtimisotsuseid, kuna tema arvutusvõimekus on suurem. Kui aga juhtimine eeldab lisaks põhjuse-tagajärje  järelduste tegemisele muid, nö inimlikke komponente, siis tasuks juhtimis- ja ka nõustamisotsuste delegeerimisega hoogu pidada. Ega asjata räägita juhtimiskunstist. Küsimus andmete usaldusväärsuse ja turvalisuse kohta muutub seda olulisemaks, mida rohkem roboteid pimesi  usaldada. Birgy: See muidugi ei tähenda, et inimesed teeksid ise alati parimaid otsuseid. Kuid olen nõus, et inimeste asju tuleks otsustada inimestel. Samas, kui robot aitaks meil natuke kiiremini saadud andmeid ja vahel ka suurandmeid analüüsida, siis oleks inimestel lihtsam teha ka teadlikumaid otsuseid. Kas roboti-vastused võivad olla ka kuidagi kallutatud, nii, et selleks saab kasu ainult teatud tüüpi inimene? Aive: Kui inimesed mõtlevad robotite tehtavate otsuste ja saadavate tulemuste peale, siis usutakse, et robotite otsused on objektiivsemad, kuna seal puudub subjektiivsus, kallutatus ja kellegi eelistamine mis tahes  isiklikel ja inimlikel põhjustel. Unustatakse, et tehisintellekti treenimine toimub nende andmete põhjal, mis inimkond on varasemalt loonud. Tehnoloogia on väärtusvaba – see ei ole hea ega halb. See, kuidas inimesed tehnoloogiat kasutavad, annab kas häid või halbu tulemusi. Birgy: Kahjuks on see nii, et kuna algandmed ei ole alati kvaliteetsed, siis võib kergesti juhtuda, et robot pakub oma parimate kavatsuste juures halbu ja diskrimineerivaid lahendusi. Keeruliseks muutub olukord siis, kui on aastaid tehtud juba natuke kallutatud otsuseid ja keegi ei saa aru, kuidas asi alguse sai. Nali on ka selles, et nendes kallutatud ostsutes ei saa süüdistada roboteid, vaid ikka inimesi, kes kallutatud algandmed sisse söötsid ja valesti esitatud küsimusi esitasid ning selle pealt ka otsuseid tegid. Robot töötab parimalt siis, kui inimene teda ei sega. ChatGPT: Kui juhtimisroboti algoritmid on loodud inimlike otsuste põhjal, võivad need kinnistada olemasolevaid ebavõrdsusi ja eelarvamusi. See võib viia ebaõiglaste soovitusteni või otsusteni, mis ei arvesta organisatsiooni kõigi  liikmete vajadustega. Milliseid oskuseid peab omama juht, kes kasutab robot-nõustajat? Aive: Juht peab aru saama, kes on peremees, kes teener. Kui juht kasutab tehnoloogia võimalusi oskuslikult, on tal tark mees taskus. Kui juht usaldab tehnoloogia tulemusi pimesi, ei päästa see teda juhtimisvastutusest. Vead jäävad ikkagi juhi kanda ja vastutada, kas ta siis kasutas robot-nõustajat või mitte. Birgy: Juht peaks olema kursis, kuidas tehisintellekt töötab, olema kursis erinevate tehnoloogiakasutuse varjupooltega ja suutma kiiresti protsessi peatada, et pöörduda tagasi viimasesse stabiilsesse olukorda. Samamoodi võib olla adekvaatne soovitus hakata pidama juhtimisalast logi, et millal ja kus on otsuste tegemisel kasutatud tehisintellekti (ja sellest ka töötajatele teavitama), et hiljem võiks minna ajas tagasi, ja leida kergemini, kus asjad võisid viltu minna. ChatGPT: Robotitel võivad puududa sotsiaalsed oskused ja inimlik empaatia, mis on juhtimises olulised. Inimjuhid suudavad tõhusamalt mõista ja reageerida oma meeskonna emotsionaalsetele vajadustele. Kas robotid võtavad üle inimeste töö, antud juhul ettevõtte nõustajate töö? ChatGPT: Organisatsioonid võivad hakata tehnoloogiast ja robotitest liiga palju sõltuma, jättes tähelepanuta inimressursi potentsiaali ja kogemuse. Birgy: Robotid võivad näiliselt tunduda hea lahendus, sest nad hoiavad kokku aega. Automatiseerimise mõte ju selles seisnebki, et inimestelt võetakse üle ülesanded, mida robotid teevad paremini. Praegusel juhul on selgunud, et näiliselt kirjutab robot paremini, joonistab paremini ja ka analüüsib asju paremini, aga seda kõike näiliselt. Kuna robot ei tea ega saa tegelikult aru, mida temalt tahetakse, siis üks hetk tundub ta asjalik ja teisel hetkel võib ta teha otsuseid nagu “Jäätisevabriku tehisintellekt otsustas tappa ära inimesed, kuna nad sõid ära kogu tema toodangu. Jäätisevabriku eesmärgiks oli omada hulga jäätist”. Aive: Ettevõtte ülesannete ja kohustuste spekter on lai. Paljude ülesannete kvaliteetne täitmine sõltub sisendandmetest ja andmetöötlusest. See omakorda võtab aega ja ressurssi. Kui vabastame inimese Sisyphose  tööst, jääb talle rohkem aega mõelda, analüüsida, visioneerida, mõelda maailma paremaks tegemisele. Tuim töö ei võlu kedagi. Juba täna kasutavad nutikad töötajad tehisintellekti ära, et vabastada ennast loomingulisteks ja tarkust nõudvateks ülesanneteks. Andkem siis kiviveeretamine masinatele. Ja jätkem juhtidele võimalus mõelda väljapool raame, rakendada emotsionaalset intelligentsust, hoolida inimestest, keskkonnast ja tulevikust. Kokkuvõtteks võidavad need inimesed (ja organisatsioonid), kes kasutavad tehisintellekti ära, kuid ei loobu sealjuures  enda osalusest otsustusprotsessis. Seega tasub uurida erinevaid viise, kuidas tehisintellekti ettevõtluses ära kasutada ning teha endale samas selgeks, kuidas tehnoloogia töötab ning millises osas tema pakutut usaldada ei saa. Selleks, et muutunud olukorraga edukalt hakkama saada, peaks iga ettevõtte juht omama alusteadmisi, kuidas tehisintellekt toimib, et osata sellest tulenevaid ohte vältida ja ka sellest tehnoloogiast kasu saada.
TalTechi ärikorralduse instituudi organisatiooni ja juhtimise valdkonna vanemlektor
TalTechi IT Kolledži vanemteadur ja infotehnoloogia teaduskonna dekanaadi bakalaureuseõppe prodekaan
OpenAI poolt välja töötatud juturobot
Tehisintellekt | Foto: Growtika/Unsplash

Tehisintellekt | Foto: Growtika/Unsplash

Kas tehisintellekt võtab juhtimises üle nõustaja rolli? Eetik Aive Pevkur arvab, et kui juht kasutab tehnoloogia võimalusi oskuslikult, on tal tark mees taskus.

2023. aastal toimus tehisintellekti kasutamises plahvatus ning ettevõtted hakkasid otsima võimalusi, kuidas seda oma teenistusse rakendada – kes hakkas arendama äppe ja kes hakkas tehisintellekti abil tekste looma, kes ChatGPT käest nõu küsima. Ülikoolid asusid neid protsesse uurima. TalTechis valmis tehisintellekti promptimise (skripti) kasutamise teemal bakalaureusetöö (Martin Garbuz, “Inimloetavate aruannete genereerimine töötajate tagasiside andmete põhjal Motichecki näitel”, juhendaja Toomas Lepikult), milles uuriti, kas ja kuidas saab tehniliselt luua inimesele arusaadavas keeles robot-vastaja, kes analüüsiks töötajate antud tagasisidet, et teha selle pealt juhtimisotsuseid.

Bakalaureusetöö uurimuses analüüsiti ChatGPT antud vastuste sidumist Motichek lahendusega juhtimisotsuste tegemiseks. Tegemist on võimalusega automatiseerida ning  ökonomiseerida nõustamist – kui inimesel võib läbiviidud küsitlusele vastuste ja tulemuste edastamiseks kuluda nädalaid või kuid, siis Motichek annaks soovitusi ja analüüse jooksvalt, andmete tekkimise käigus.

See võimaldaks ettevõttel väljakutsetele otsekohe reageerida. Esmase tagasiside põhjal võib öelda, et eksperiment oli tehniliselt edukas. Pikem vastus avab aga mitmeid juhtimist puudutavaid eetilisi väljakutseid, mida arutleme edasi koos eetiku Aive Pevkuri ja ChatGPT-ga.

Milliseid ohte peidab endas juhtimise nõustamise andmine robotile?

ChatGPT: Robotid vajavad juurdepääsu suurele hulgale andmetele, et pakkuda asjakohast nõustamist. See võib kaasa tuua andmete turvalisuse probleeme, eriti kui need sisaldavad tundlikke ettevõtteandmeid või isikuandmeid. Juhtimisrobotid võivad raskustes olla konteksti mõistmisega ja võivad anda nõu, mis ei arvesta konkreetset olukorda ega inimtegurit. Tekkida võivad tehnilised probleemid, mis võivad põhjustada nõustamise ebatäpsusi või isegi ohtlikke soovitusi. Juhtimisrobotite kasutamine võib kaasa tuua eetilisi dilemmasid, eriti seoses privaatsuse, vastutuse ja otsuste läbipaistvusega.

Aive: Selles küsimuses peitub huvitav vaade juhtimise olemusele. Kui juhtimist on võimalik taandada piisava sisendi põhjal õigete järelduste tegemisele, siis võiks robot teha häid juhtimisotsuseid, kuna tema arvutusvõimekus on suurem. Kui aga juhtimine eeldab lisaks põhjuse-tagajärje  järelduste tegemisele muid, nö inimlikke komponente, siis tasuks juhtimis- ja ka nõustamisotsuste delegeerimisega hoogu pidada. Ega asjata räägita juhtimiskunstist. Küsimus andmete usaldusväärsuse ja turvalisuse kohta muutub seda olulisemaks, mida rohkem roboteid pimesi  usaldada.

Birgy: See muidugi ei tähenda, et inimesed teeksid ise alati parimaid otsuseid. Kuid olen nõus, et inimeste asju tuleks otsustada inimestel. Samas, kui robot aitaks meil natuke kiiremini saadud andmeid ja vahel ka suurandmeid analüüsida, siis oleks inimestel lihtsam teha ka teadlikumaid otsuseid.

Kas roboti-vastused võivad olla ka kuidagi kallutatud, nii, et selleks saab kasu ainult teatud tüüpi inimene?

Aive: Kui inimesed mõtlevad robotite tehtavate otsuste ja saadavate tulemuste peale, siis usutakse, et robotite otsused on objektiivsemad, kuna seal puudub subjektiivsus, kallutatus ja kellegi eelistamine mis tahes  isiklikel ja inimlikel põhjustel. Unustatakse, et tehisintellekti treenimine toimub nende andmete põhjal, mis inimkond on varasemalt loonud. Tehnoloogia on väärtusvaba – see ei ole hea ega halb. See, kuidas inimesed tehnoloogiat kasutavad, annab kas häid või halbu tulemusi.

Birgy: Kahjuks on see nii, et kuna algandmed ei ole alati kvaliteetsed, siis võib kergesti juhtuda, et robot pakub oma parimate kavatsuste juures halbu ja diskrimineerivaid lahendusi. Keeruliseks muutub olukord siis, kui on aastaid tehtud juba natuke kallutatud otsuseid ja keegi ei saa aru, kuidas asi alguse sai. Nali on ka selles, et nendes kallutatud ostsutes ei saa süüdistada roboteid, vaid ikka inimesi, kes kallutatud algandmed sisse söötsid ja valesti esitatud küsimusi esitasid ning selle pealt ka otsuseid tegid. Robot töötab parimalt siis, kui inimene teda ei sega.

ChatGPT: Kui juhtimisroboti algoritmid on loodud inimlike otsuste põhjal, võivad need kinnistada olemasolevaid ebavõrdsusi ja eelarvamusi. See võib viia ebaõiglaste soovitusteni või otsusteni, mis ei arvesta organisatsiooni kõigi  liikmete vajadustega.

Milliseid oskuseid peab omama juht, kes kasutab robot-nõustajat?

Aive: Juht peab aru saama, kes on peremees, kes teener. Kui juht kasutab tehnoloogia võimalusi oskuslikult, on tal tark mees taskus. Kui juht usaldab tehnoloogia tulemusi pimesi, ei päästa see teda juhtimisvastutusest. Vead jäävad ikkagi juhi kanda ja vastutada, kas ta siis kasutas robot-nõustajat või mitte.

Birgy: Juht peaks olema kursis, kuidas tehisintellekt töötab, olema kursis erinevate tehnoloogiakasutuse varjupooltega ja suutma kiiresti protsessi peatada, et pöörduda tagasi viimasesse stabiilsesse olukorda. Samamoodi võib olla adekvaatne soovitus hakata pidama juhtimisalast logi, et millal ja kus on otsuste tegemisel kasutatud tehisintellekti (ja sellest ka töötajatele teavitama), et hiljem võiks minna ajas tagasi, ja leida kergemini, kus asjad võisid viltu minna.

ChatGPT: Robotitel võivad puududa sotsiaalsed oskused ja inimlik empaatia, mis on juhtimises olulised. Inimjuhid suudavad tõhusamalt mõista ja reageerida oma meeskonna emotsionaalsetele vajadustele.

Kas robotid võtavad üle inimeste töö, antud juhul ettevõtte nõustajate töö?

ChatGPT: Organisatsioonid võivad hakata tehnoloogiast ja robotitest liiga palju sõltuma, jättes tähelepanuta inimressursi potentsiaali ja kogemuse.

Birgy: Robotid võivad näiliselt tunduda hea lahendus, sest nad hoiavad kokku aega. Automatiseerimise mõte ju selles seisnebki, et inimestelt võetakse üle ülesanded, mida robotid teevad paremini. Praegusel juhul on selgunud, et näiliselt kirjutab robot paremini, joonistab paremini ja ka analüüsib asju paremini, aga seda kõike näiliselt. Kuna robot ei tea ega saa tegelikult aru, mida temalt tahetakse, siis üks hetk tundub ta asjalik ja teisel hetkel võib ta teha otsuseid nagu “Jäätisevabriku tehisintellekt otsustas tappa ära inimesed, kuna nad sõid ära kogu tema toodangu. Jäätisevabriku eesmärgiks oli omada hulga jäätist”.

Aive: Ettevõtte ülesannete ja kohustuste spekter on lai. Paljude ülesannete kvaliteetne täitmine sõltub sisendandmetest ja andmetöötlusest. See omakorda võtab aega ja ressurssi. Kui vabastame inimese Sisyphose  tööst, jääb talle rohkem aega mõelda, analüüsida, visioneerida, mõelda maailma paremaks tegemisele. Tuim töö ei võlu kedagi. Juba täna kasutavad nutikad töötajad tehisintellekti ära, et vabastada ennast loomingulisteks ja tarkust nõudvateks ülesanneteks. Andkem siis kiviveeretamine masinatele. Ja jätkem juhtidele võimalus mõelda väljapool raame, rakendada emotsionaalset intelligentsust, hoolida inimestest, keskkonnast ja tulevikust.

Kokkuvõtteks võidavad need inimesed (ja organisatsioonid), kes kasutavad tehisintellekti ära, kuid ei loobu sealjuures  enda osalusest otsustusprotsessis. Seega tasub uurida erinevaid viise, kuidas tehisintellekti ettevõtluses ära kasutada ning teha endale samas selgeks, kuidas tehnoloogia töötab ning millises osas tema pakutut usaldada ei saa. Selleks, et muutunud olukorraga edukalt hakkama saada, peaks iga ettevõtte juht omama alusteadmisi, kuidas tehisintellekt toimib, et osata sellest tulenevaid ohte vältida ja ka sellest tehnoloogiast kasu saada.