Tulevaisuusblogi | Tekoälyn tulevaisuus

Artikkelikuva: Tulevaisuusblogi | Tekoälyn tulevaisuus

Forum Virium Helsingin Tulevaisuusblogissa älykaupunkiasiantuntijamme kurkistavat oman alansa tulevaisuuteen, pohtivat Helsingin muutostrendejä ja esittävät oman visionsa siitä, miten tiedettä, teknologiaa ja kokemusta voidaan parhaimmillaan hyödyntää kaupungin kestävän kehityksen hyväksi.

Tekninen asiantuntija Juho-Pekka Virtanen Forum Virium Helsingin datatiimistä tarkastelee tässä blogikirjoituksessa tekoälyä ja sen nykytilaa ja monia tapoja, joilla tekoäly on jo osa työn arkea.

Tekoälystä on tullut hypesana, jonka luvataan mullistavan lähes mikä vaan toimiala. Erityisesti tekoälybuumin kärjessä tuntuvat olevan generatiivinen tekoäly ja vielä tarkemmin suuret kielimallit (Large Language Model, LLM), jotka myös näkyvät kuluttajille verkossa tarjottavien palveluiden (kuten ChatGPT, Copilot tai Google Gemini) kautta. Tekoäly kuitenkin vaikuttaa myös koneoppimisen ja kuvantunnistuksen kautta.

Hankkeista kokeiluja ja ymmärrystä

Nopeasti kehittyvän teknologian kanssa on mielestäni tärkeää päästä käytännön kokeilujen tasolle mahdollisimman nopeasti. Tällöin voidaan paremmin ymmärtää mahdollisia syntyviä hyötyjä ja arvioimaan teknologian soveltuvuutta. Forum Virium Helsingin hankkeissa tekoälyä on hyödynnetty monella tavalla.

Ihmiset katsovat dataraporttia viheralueista tabletilta.
Ihmiset katsovat dataraporttia viheralueista tabletilta. Kuva: Maija Astikainen

Viheraluiden kunnossapito 

PilotGreen-hankkeen kokeilussa testattiin puistoalueiden satelliittikuvien tulkintaa tekoälyn avulla. Kokeilu keskittyi kolmessa kunnossapitokohteessa nurmikon kasvuun, vieraslajien tunnistamiseen ja lannoituksen kohdentamiseen edelliskesän datan perusteella. Erityisesti pyrittiin arvioimaan kunnossapidon tarvetta etänä, jotta puistojen turhia tarkastuskäyntejä ja leikkuukertoja voitaisiin vähentää. Kunnossapidon työntekijät arvioivat, että palvelu auttoi ennakoimaan ja suunnittelemaan töitä tehokkaammin. Turhien maastokäyntien ja leikkuukertojen määrä väheni, mikä vapautti resursseja muuhun tekemiseen ja toi taloudellisia ja ympäristöhyötyjä.

Liikenteen sujuvuuden ennakointi

ACUMEN-hankkeen Helsingin pilotissa hyödynnettiin tekoälyä erityisesti monilähteisen liikennedatan yhdistämiseen, poikkeamien havaitsemiseen ja liikenteen sujuvuuden ennakointiin. Tavoitteena oli parantaa kaupunkilaisten liikkumiskokemusta sekä tukea kestäviä ja sujuvia kulkutapoja Helsingissä. SEDIMARK-projektissa puolestaan kytkettiin koneoppimisen komponentteja osaksi datan markkinapaikan virtoja siten, että tekoäly voi tunnistaa datasta poikkeamia, virheitä ja arvioida datan laatua ennen kuin aineistot päätyvät markkinapaikalle asti.

Drooni kuvaa Länsisataman liikenneruuhkaa
Drooni kerää dataa Länsisataman liikenneruuhkasta tekoälyn käsiteltäväksi. Kuva: Vesa Laitinen

Satelliittidata ja paikkatieto luonnolliselle kielelle

SPACE4Cities-hankkeen palveluntoimittajayritykset käyttävät kukin tekoälyä eri tavoin satelliittidatan käsittelyyn. Tekoälytyyppejä toimittajilla käytössä on monia: koneoppiminen ja syväoppiminen, agenttinen tekoäly, multimodaaliset kehittyneet tekoälymallit (foundation model), tuottava tekoäly, ja suuret kielimallit listana esimerkeistä, joka ei vielä kata kaikkia lähestymistapoja. Toimittajien käyttämät tekoälymallit ovat usein eurooppalaista perua, kuten Mistral-kielimalli ja Euroopan avaruusjärjestön rahoittama TerraMind -multimodaalinen malli.

SPACE4Cities-hankkeessa kehitettävien ratkaistujen soveltamien tekoälyratkaisujen monipuolisuus pohjautuu tarpeeseen soveltaa oikeanlaista tekoälyratkaisua oikeaan tehtävään. Esimerkiksi kielimallit eivät ole sopivin tekoälytyyppi satelliittidatan käsittelyyn, sillä jotta kielimalli pystyy käsittelemään raakadataa, data pitää käsitellä kielimallille sopivaksi. Kielimallit voivat kuitenkin tarjota käytännöllisen tavan sovelluksen loppukäyttäjälle ymmärtää sovelluksen tuottamia tuloksia sekä antaa kielimallia käyttävälle sovellukselle pyyntöjä tekstimuodossa. Yhtälailla sovellus voi tuottaa tekstipohjaisia ehdotuksia loppukäyttäjälle käsitellyn raakadatan pohjalta. Tämä lähestymistapa on erityisen hyvä loppukäyttäjille, jotka eivät ole tottuneet käsittelemään satelliitti- tai paikkatietoja raakadatana, mutta haluavat soveltaa datasta saatuja analyyseja työssään. 

”Tämä lähestymistapa on erityisen hyvä loppukäyttäjille, jotka eivät ole tottuneet käsittelemään satelliitti- tai paikkatietoja raakadatana, mutta haluavat soveltaa datasta saatuja analyyseja työssään.”

Kielimalli koodaa

Ohjelmistokehityksessä kielimallilla tuetusta koodauksesta on jo tullut arkipäivää. Suuri osuus ohjelmointityöstä on kuitenkin melko tavanomaisten tiedonkäsittelyn prosessien kirjoittamista. Tekoäly tehostaa tätä työtä huomattavasti kirjoittamalla yksinkertaisimmat toiminnot ohjelmoijan ohjeiden perusteella. Ihminen siis edelleen määrittelee ohjelmiston arkkitehtuurin ja käytetyt tiedon siirron ja käsittelyn muodot, mutta kone hoitaa osan kirjoitustyöstä. Tekoäly myös tukee ohjelmoijaa koodin muutosten hallinnassa, testaamisessa ja dokumentoinnissa.Lisäksi tekoälyavusteinen koodaus on tehokasta toteutettaessa konsepti- ja prototyyppitason sovelluksia, visualisointeja ja käyttöliittymiä. 

Myös täysin automatisoidusta sovelluskehityksestä puhutaan paljon. Nopeus ja näyttävyys voivat kuitenkin hämätä. Tekoäly luo vakuuttavan ensivaikutelman rakentamalla sovelluksesta visuaalisesti hienon pinnan ja koodin ns. ’onnellisen polun’. Tarkempi tarkastelu paljastaa kuitenkin usein puutteita niin pinnalla kuin pinnan alla. Viimeistellyltä näyttävä visuaalinen ilme ei kuitenkaan kerro toimivuudesta: tekoälyltä puuttuu ymmärrys syvällisestä käytettävyydestä ja saavutettavuudesta, jolloin sovellus saattaa hajota heti, kun käyttäjä toimii odottamattomasti. Toiseksi taustalta puuttuu usein se näkymätön 90 prosenttia työstä – tietoturva, GDPR-vaatimukset ja ylläpidettävä arkkitehtuuri. Ihmisen tehtävä onkin muuttaa tämä hauras prototyyppi kestäväksi.

”Tekoälyltä puuttuu ymmärrys syvällisestä käytettävyydestä ja saavutettavuudesta, jolloin sovellus saattaa hajota heti, kun käyttäjä toimii odottamattomasti. Toiseksi taustalta puuttuu usein se näkymätön 90 prosenttia työstä – tietoturva, GDPR-vaatimukset ja ylläpidettävä arkkitehtuuri. Ihmisen tehtävä onkin muuttaa tämä hauras prototyyppi kestäväksi.”

Kuva: Marek Sabogal, Helsinki Partners

Asiakaspalautteen analysointi

Toinen merkittävä sovellusalue kielimalleille on tiedon rakenteellistaminen. On lukematon määrä prosesseja, joissa käsitellään vapaamuotoista tekstiä – esimerkiksi asiakaspalautteen osana. Tällaisten suurten, vapaasta tekstistä koostuvien aineistojen analysointi on työlästä ja ne istuvat huonosti tiedolla johtamisen työkaluihin, jotka rakastavat monivalintoja ja numeroita. Samaan aikaan ne olisivat äärimmäisen kiinnostavia taltioimaan kaupunkilaisten näkemyksiä ja mielipiteitä. 

DataliiKe-projektissa kokeiltiin kielimallin käyttöä analysoitaessa matkailijoiden kyselyitä matkailuneuvonnasta. Vapaista tekstisyötteistä koostuva yli tuhatrivinen aineisto pystyttiin luokittelemaan kielimallin avulla sekä ennalta määriteltyihin tilastokategorioihin, että aineistosta nouseviin teemoihin. Tämän jälkeen ihminen pystyy huomattavasti paremmin sekä tutustumaan aineistoon, että varmentamaan tekoälyn luokittelun tulokset. Lisäksi aineistoa voidaan tällaisen ”rakenteellistamisen” jälkeen tutkia käyttäen tyypillisiä tiedolla johtamisen työkaluja, kuten PowerBI:ta. 

Koska kielimalleja voidaan myös hyödyntää rajapintojen yli, voidaan tällainen tekoälykomponentti helposti yhdistää nykyisiin integraatioprosesseihin. Käytännössä esimerkiksi siten, että kielimalli tuottaa aineistoon luokituksen tiedon syöttämisen jälkeen ja tulos tallennetaan tietokantaan muiden tietojen lomassa. Tekoälystä tulee siis käyttäjälle näkymätön osa sovelluksia ja tiedon käsittelyä eikä pelkästään selaimen alanurkassa häiriköivä chatbot.

”Tekoälystä tulee siis käyttäjälle näkymätön osa sovelluksia ja tiedon käsittelyä eikä pelkästään selaimen alanurkassa häiriköivä chatbot.”

Tekoäly verkon reunalla

Samalla tavalla käyttäjän näkymättömissä ovat kaikki ne sovellukset, joissa tekoälyllä luokitellaan video- tai kuva-aineistoa. Esimerkiksi liikennelaskentaa päästään tekemään joustavasti, kun sen kuvavirtaa katsoo sopivasti koulutettu koneoppiva malli. Teköälyä käytetään jo kamerassa sisällä, jolloin aineisto analysoidaan heti ilman tarvetta lähettää videota verkkoon. Myös yksityisyyteen liittyvät kysymykset yksinkertaistuvat huomattavasti, sillä ihmisistä tai ajoneuvoista ei tallenneta kuvaa, josta ne voitaisiin tunnistaa: Vain liikennelaskennan kannalta oleelliset tiedot lähetetään edelleen; ajoneuvojen määrät, tyypit ja ajosuunnat vartin välein. Menetelmää kutsutaan “reunaälyksi” (edge-AI), sillä kamera sijaitsee internetin kannalta verkon reunalla. 

Kuva: N2 Albiino, Helsinki Partners

Tekoäly kyberturvallisuuden vahvistajana

Tekoälyllä tietoturvasta saadaan älykkäämpää ja tehokkaampaa. Esimerkiksi pilvipalveluissa tekoäly pystyy lukemaan ja ymmärtämään jaettujen tiedostojen sisältöä. Jos tiedosto sisältää arkaluontoista tietoa, se luokitellaan ja varmistetaan, että vain oikeilla ihmisillä on lupa nähdä tai jakaa sitä eteenpäin. Tekoäly oppii käyttäjien normaalista toiminnasta, jolloin se huomaa välittömästi, jos joku yrittää jakaa tiedostoa epäilyttävällä tavalla. Myös perinteiset sisällöntunnistus- ja luokittelukeinot auttavat tietoturvan tehostamisessa: esimerkiksi henkilötiedot tai arkaluontoiset tiedot kuten henkilötunnus, voidaan tunnistaa tiedostoista ja rajoittaa tai estää niiden jakamista.

Verkkoliikenteen ja sähköpostien suojaamisessa tekoäly on kuin erittäin nopea ja tarkka etsivä. Se analysoi jatkuvasti verkon toimintaa ja tunnistaa pienimmätkin merkit hyökkäyksestä, jopa täysin uudet uhat, joita ei ole koskaan aiemmin nähty (ns. ”nollapäiväuhat”). Kun tekoäly havaitsee haitallista liikennettä, se voi automaattisesti pysäyttää sen, ennen kuin vahinko pääsee tapahtumaan. Sähköposteissa se käyttää kielen ymmärtämistä tunnistaakseen tietojenkalasteluviestit ja haitalliset liitetiedostot. Vaaralliset viestit ja liitteet joutuvat karanteeniin tai poistetaan välittömästi, mikä helpottaa käyttäjien arkea ja parantaa tietoturvaa.

”Verkkoliikenteen ja sähköpostien suojaamisessa tekoäly on kuin erittäin nopea ja tarkka etsivä. Se analysoi jatkuvasti verkon toimintaa ja tunnistaa pienimmätkin merkit hyökkäyksestä, jopa täysin uudet uhat, joita ei ole koskaan aiemmin nähty.”

Työkaluista toimintamalleihin

Tekoälyn tehokas hyödyntäminen edellyttää sekä työkalujen ja käytettävän datan laadun, että työn roolien ja prosessien ymmärtämistä. Muuten työkaluista tulee helposti päälleliimattuja ja merkittävät hyödyt saattavat jäädä saavuttamatta. Juuri käynnistyneessä AIRA – AI-ratkaisuilla inhimillistä kestävyyttä ja tuottavuutta tietotyöhön -hankkeessa tarkoituksena on kehittää yhdessä yritysten ja kaupunkien kanssa uusia generatiivisen tekoälyn hyödyntämisen ja käyttöönoton toimintamalleja. Erityisesti tavoitteena on toimintamallien kautta tukea tekoälyn tehokasta käyttöä tietointensiivisissä ja innovaatiotyötä tekevissä organisaatioissa, tähdäten tuottavuuden ja inhimillisen kestävyyden lisäämiseen.

Yhteenvetona näyttääkin siltä, että tekoälystä tulee hyvin nopeasti osa arkeamme, mutta ehkä toisella tavalla kun kovimmassa markkinoinnin rummutuksessa luvataan. Parhaassa tilanteessa tekoäly tarjoaa meille parempaa dataa, mahdollisuuden käsitellä myös hankalasti luokiteltavia laadullisia aineistoja ja tehokkuutta esimerkiksi integraatioprosesseihin.

Tulevaisuusblogissa julkaistua:

Lisätietoa

Tekninen asiantuntija Juho-Pekka Virtanen

Juho-Pekka Virtanen
Tekninen asiantuntija
+358 40 635 1212
juho-pekka.virtanen@forumvirium.fi

Lue myös