Tekoäly luokkahuoneessa ja sotilasopetuksessa

Tämä on itsenäinen jatko-osa aiemmalle pohdinnalleni tekoälyn käytöstä.

BBC julkaisi lokakuun alussa uutisen otsikolla “Schools excited but wary of AI as it helps cut teacher workload.” Walesin koulutarkastuslaitoksen Estynin raportti kertoo, miten tekoäly on löytänyt tiensä koulujen arkeen. Opettajat käyttävät sitä jo nyt tuntisuunnitelmien laatimiseen, raporttien kirjoittamiseen ja jopa oppilaiden palautteen tuottamiseen. Osa kouluista opettaa tekoälyn vastuullista käyttöä oppilailleen osana tietotekniikkaopetusta.

Samalla epävarmuus kasvaa. Osa opettajista pelkää, että tekoäly rapauttaa kriittistä ajattelua ja kannustaa oikoreitteihin. Toiset taas näkevät sen uuden ajan kynnyksenä – välineenä, joka voi vapauttaa opetuksen rutiineista ja antaa tilaa luovuudelle.

Tämä keskustelu ei koske vain teknologiaa, vaan tiedon ja vallan rakennetta.

Jos jokainen oppilas voi kysyä suoraan tekoälyltä, kuka enää määrittelee, mikä on oikea vastaus?
Tekoäly ei siis ole pelkkä uusi työkalu. Se on epistemologinen haaste, joka pakottaa yhteiskunnan pohtimaan uudelleen, mitä tieto on ja kuka sen omistaa.

TK-kuva 1: Luokkahuoneessa seisoo opettaja ja hänen vierellään hologrammina tekoäly. Molemmat katsovat oppilasta, joka nostaa kätensä. Taustalla liitutaululle on piirretty kolme sanaa: curiosity – control – trust. Kuva AI.

Tieto, valta ja intuitio – miksi opettaja ei katoa

Tekoäly pystyy jo nyt laatimaan opetussuunnitelmia, tiivistämään muistiinpanoja ja mukauttamaan sisältöä oppilaiden tasoon. Se osaa jopa arvioida tunneilmapiiriä luokassa tekstin ja palautteen perusteella. Mutta yksi asia on yhä ihmiselle ominaista: kyky aistia oivalluksen hetki.

Opettaja ei ole enää tiedon jakaja, vaan tulkki ja moraalinen opas algoritmien maailmassa.
Luciano Floridi, The Ethics of Information -teoksen kirjoittaja, muistuttaa:

Tekoälyn etiikka ei koske vain sitä, mitä tekoäly tekee, vaan millaisessa maailmassa me sen kanssa elämme.”

Tekoäly voi tukea tiedon prosessointia, mutta ei voi opettaa harkintaa. Kun oppilas kysyy tekoälyltä “miksi”, hän saa vastauksen, joka perustuu todennäköisyyksiin ja painotuksiin – ei kokemukseen.

Opettajan tehtävä on auttaa ymmärtämään, että todennäköinen ei aina ole totta, ja että tiedon neutraalius on usein illuusio.

Sotataidon opetuksen näkökulma – data, vaisto ja sattuma

Sotataito on äärimmäinen esimerkki tietoon ja epävarmuuteen perustuvasta päätöksenteosta.
Strategia, operaatiotaito ja taktiikka elävät jatkuvassa epätasapainossa tiedon, arvauksen ja sattuman välillä.

Tekoäly kykenee laskemaan operaatioiden menestymisen todennäköisyyksiä, kestoja ja logistisia pullonkauloja. Se voi löytää historiallisia analogioita ja ehdottaa optimaalisia toimintavaihtoehtoja – ja siinä se on mestari.

Mutta tekoäly ei keksi epävarmuutta. Se ei tunne intuitiota, eikä se ymmärrä moraalista ”henkeä” – sisua, joka saa ihmisen joskus tekemään vastoin mallien logiikkaa – ja silti onnistumaan.

Sotilasjohtajan tärkein kyky on tehdä päätös, vaikka tieto olisi puutteellista. Clausewitzin “sodan usva” on yhä ajankohtainen: se on inhimillisen kokemuksen rajamailla toimimista, ei numeerista optimointia.

Tulevaisuuden johtajaopetus voikin käyttää tekoälyä tavalla, joka yhdistää laskennan ja vaiston.

Esimerkiksi “Fog of War” -harjoituksissa AI voi mallintaa sensorivirheitä, logistiikan häiriöitä ja siviilien käyttäytymistä, mutta päätöksen tekee edelleen ihminen. Opiskelija näkee simuloidut todennäköisyydet, mutta joutuu vastaamaan kysymykseen: mitä jos malli on väärässä?

Juuri tässä syntyy uuden ajan sotilasjohtaja – ei mallin käyttäjänä, vaan mallin hyödyntäjänä, joka ymmärtää sekä datan voiman että sen rajat.

TK-kuva 2: Kaksi komentajaa työskentelee hämärässä johtokeskuksessa. Yläpuolella leijuu tekoälyn mallintama kartta, jonka reunat hajoavat ”sumuksi.” Kuva AI.

Peili, ei pelastus

Tekoäly ei ole opettaja eikä korvike. Se on peili, joka näyttää, miten suhtaudumme tietoon, vastuuseen ja toisiimme.

Koulutus – siviili tai sotilas – ei ole vain tietojen siirtämistä, vaan kulttuurinen ja eettinen teko.  Jos koulujen ja johtajakoulujen tekoälykokeiluista halutaan menestys, niissä on muistettava kaksi periaatetta:

  1. Ihminen säilyttää vastuun. Tekoäly saa ehdottaa, mutta ihminen päättää.
  2. Epävarmuus on opetuksen ydin. Jos kaikki voidaan laskea, mitään ei enää opita.

Kun tekoäly katsoo meitä takaisin, se kysyy hiljaa: “Oletko valmis ajattelemaan itse?”

Lähteet ja taustat:
– BBC / Estyn (9.10.2025): Schools ’excited but wary’ of AI
– UNESCO (2023): Guidance for Generative AI in Education and Research
– Floridi, L. (2013): The Ethics of Information
– Tegmark, M. (2017): Life 3.0
– Puistola, J.-A. (2025): Fog of War – AI in Military Leadership Education (Pohdintaa)

Kuvat AI ja Nikolai Ylirotu / Sarvikuono Design

***

Kirjoittaja, Puolustusvoimien tutkimuslaitoksen doktriiniosastolla palveleva komentaja evp Juha-Antero Puistola (vasemmalla) ja kuvien laatija, TK-piirtäjä AI (oikealla) suosittelevat rohkeata, mutta ohjeidenmukaista harjoittelua kullekin lukijalle.

Juha-Antero Puistola: Käyttäisinkö tekoälyä? – Esimerkkinä Suomen ja Ruotsin turvallisuuspoliittisten selontekojen vertailu