Tekoäly on tällä hetkellä kuumaakin kuumempi aihe, ja sitä hyödynnetään monilla eri toimialoilla sisällöntuotannosta teollisuuteen asti. Yksi sen eniten keskustelua herättävä sovellusmuoto on kyberturvallisuus, jonka saralla tekoälyä voidaan hyödyntää niin puolustautumisessa kuin hyökkäämisessäkin. Miten tekoäly siis oikeastaan toimii ja mitkä ovat tärkeimmät asiat, jotka siitä pitäisi tietää?
Tekoäly tai AI (artificial intelligence) mallintaa ihmisälyä koneissa, jotka on ohjelmoitu ajattelemaan, oppimaan ja ratkaisemaan ongelmia kuten ihmiset. Tekoälyä voidaan ajatella koneena, joka pystyy jäljittelemään ihmisen käyttäytymistä.
"Tällä hetkellä tekoäly on varsin nuori tekniikka, ja sillä on luultavasti noin 11-vuotiaan lapsen aivokapasiteetti. Nykyiset tutkimukset osoittavat, että tuhannen ihmisen testiryhmän jäsenet pystyivät tunnistamaan tekoälyn tuottaman sisällön noin 55 prosentin tarkkuudella. Kun me tuotamme ja syötämme tekoälylle jatkuvasti enemmän dataa, siitä tulee aina vain älykkäämpi ja se pystyy matkimaan ihmisen kykyjä yhä paremmin”, selittää Telenorin riskienhallinnan ja uhkatiedustelun johtaja Tor Indstøy.
Indstøy puhuu innokkaasti tekoälyn mahdollisuuksista riippumatta siitä, luokitellaanko tulokset hyviksi vai pahoiksi. Indstøy selittääkin tekoälyn salaisuuksia perustavanlaatuisesta näkökulmasta: Kaikki tekoäly ei ole samanlaista, ja siksi on tärkeää tietää erot sen eri muotojen välillä.
”Ensinnäkin on klassinen tekoäly, joka viittaa tekoälyn tutkimuksen ja kehityksen varhaiseen aikakauteen, jossa keskityttiin luomaan eksplisiittisiä, sääntöihin perustuvia järjestelmiä, jotka käsittelivät symboleja tehtävien suorittamiseksi. Nykyään kun puhumme tekoälystä, tarkoitamme sen edistyneempiä versioita, kuten generatiivista tekoälyä tai LLM:ää", Indstøy jatkaa.
Generatiivinen tekoäly (generative AI) ja LLM (large language models) ovat molemmat tekoälyn alalajeja, mutta niillä on eri tarkoitukset ja omat ominaisuutensa. Generatiivisella tekoälyllä tarkoitetaan tekoälymalleja, jotka on suunniteltu luomaan uutta dataa tai sisältöä sen perusteella, millaista dataa sinne on syötetty. LLM on taas tekoälymalli, joka on erikoistunut ymmärtämään ja luomaan ihmisten kieltä, kuvia tai videoita.
Tekoäly kaipaa tuekseen yhteistyötä
Indstøy näkee tekoälyn muutosvoimana – tämän päivän teollisena vallankumouksena. Hänen mukaansa elämme parhaillamme tekoälyn aikakautta. Meillä on enemmän dataa kuin koskaan aiemmin, ja olemme kytkeytyneitä digitaalisiin laitteisiimme monin eri tavoin, luoden jatkuvasti yhä enemmän dataa. Meillä on älykelloja, jotka seuraavat kaikkea askelistamme nukkumiseen ja yhdistävät kerätyt tiedot puhelimen sovelluksiin. Näin karttuu miljardeja datapisteitä tekoälyn kehittämiseen ja Indstøyllä onkin siitä visio:
"Voisimme kouluttaa tekoälyä kaikella tiedolla, jota tuotamme ja luoda tekoälyn, joka tietää kaiken. Tekoäly voi tietää ja oppia ainoastaan asioita, jotka me syötämme sille. Mitä enemmän sille annamme, sitä enemmän voimme saada siltä."
Mutta pitäisikö meidän antaa kaikki tietomme tekoälylle? Suuremman tietomäärän avulla tekoälyjärjestelmät saavat mahdollisuuden oppia laajasta esimerkkien kirjosta, mikä parantaa tarkkuutta ja yleistietämystä. Tämä on monimutkainen aihe, joka sisältää sekä etuja että haasteita: Valtavien tietomäärien käyttö herättää niin eettisiä kuin tietosuojaankin liittyviä huolenaiheita, etenkin kun käsitellään arkaluontoisia henkilötietoja tai liikesalaisuuksia.
Indstøy korostaa voimakkaasti ihmiskeskeistä riskien ymmärtämistä, mikä viittaa riskienhallinnan muotoon, joka asettaa vahvan painopisteen ihmisen käyttäytymisen, psykologian ja päätöksenteon ymmärtämiseen erilaisten riskien kontekstissa. Tämä lähestymistapa tunnistaa, että ihmiset ovat keskeisiä tekijöitä monentyyppisissä riskeissä, kuten kyberturvallisuudessa. Me ihmiset arvioimme riskejä koko ajan arkipäiväisissäkin tilanteissa – ja tämä ajattelutapa meidän tulee ottaa käyttöön myös tekoälyn kanssa.
”Yrityspäättäjät selvittävät parasta tapaa hyödyntää tekoälyä, mutta he ovat myös huolissaan sen mahdollisista riskeistä. Edessämme on monimutkaisia haasteita, jotka edellyttävät syvällistä tekoälyteknologian ymmärtämistä, eikä meillä ole vielä kaikkia vastauksia. Tekoälyn saralta kuitenkin puuttuu yksi olennainen asia, ja se on yhteistyö. Jos voisimme yhdistää kaiken kyberturvallisuusosaamisen ja tietämyksen tekoälystä yrityksissä sekä yritysten ja julkisen sektorin välillä, saisimme enemmän tietoa ja pystyisimme hyödyntämään tekoälyä paremmin", hän selittää.
Tekoäly tulee jallittamaan meistä jokaista
Millaisia riskejä tekoäly sitten aiheuttaa kyberturvallisuudessa? Yksinkertainen vastaus on, että hyökkäykset tulevat paranemaan ja tehostumaan.
”Tekoälyn avulla kyberrikolliset voivat toteuttaa tarkasti uhrille kohdennettua tietojenkalastelua, jossa huijaus hyödyntää esimerkiksi sosiaalisesta mediasta kerättävää tietoa – tietojenkalastelu ei ole enää helposti tunnistettavaa, huonosti kirjoitettua sähköpostia toimitusjohtajalta. Myös deep faket uhkaavat rikkoa käsityksemme todellisuudesta. Tekoäly voi helposti luoda videon, jossa kuka tahansa saadaan sanomaan mitä tahansa”, Indstøy kuvailee.
Minä, tämän artikkelin kirjoittaja, sain kokea tekoälyllä tuotetun deepfaken voiman haastatellessani Indstøyta. Minuutin sisällä Indstøy oli luonut, luvallani, väärennöksen äänestäni. Väärennetty ääni oli niin aidon kuuloinen, että sillä saattaisi helposti huijata ystäviäni – vaikka ei ehkä äitiäni. Kuinka voimme puolustautua tällaista voimaa vastaan?
"Kaikki tulevat tekoälyn huijaamiksi ennemmin tai myöhemmin, eikä sitä tarvitse hävetä. Ensimmäinen askel puolustuksessamme onkin tunnustaa tekoälyn olemassaolo ja mahdollisuudet. Meidän on kommunikoitava enemmän toistemme kanssa ja autettava muita oppimaan virheistämme. On myös hyvä muistaa vanha totuus: jos jokin on liian hyvää ollakseen totta, se luultavasti onkin."
Voisiko sinun yrityksesi hyötyä tekoälystä? Lue lisää siitä, miten Microsoft Copilot toimii apuna monissa tehtävissä!