ChatGPT tuli osaksi arkea – miten tietoturva pysyy perässä?
Tietoturvan merkitys kasvaa jatkuvasti. Aidan molemmin puolin tehdään hartiavoimin työtä toisen puolen päihittämiseksi. Me Vismalla suhtaudumme tietoturvaan ja tietosuojaan suurella vakavuudella, koska asiakkaamme ansaitsevat turvallisia ja luotettavia palveluita.
Tietoturvakentällä tapahtuu koko ajan. Viime vuonna tietoturvakenttään vaikutti suuresti Venäjän käynnistämä hyökkäyssota Ukrainaan, jolla oli vaikutuksia myös näiden kahden maan ulkopuolelle. Sotaan liittyen myös Suomessa nähtiin mm. palvelunestohyökkäyksiä, joiden tekijäksi ilmoittautuivat sodan hyökkäysosapuolta kannattavat tahot.
Tämän vuoden aikanakin on ehtinyt tapahtua jo paljon. Yksi teema, joka tuntuu olevan monien puheissa ovat tekoälyyn ja suuriin kielimalleihin pohjautuvat palvelut kuten ChatGPT. Niiden tuloa on odotettu pitkään ja silti niiden rantautuminen ihmisten käytettäväksi tuntui yllättävän yhden jos toisenkin.
Toiset näkevät näissä tekoälypalveluissa vain hyötyjä ja etuja, joilla on mahdollista tehostaa työntekoa ja kiihdyttää esimerkiksi ohjelmistokehityksen tehokkuutta. Osa taas tyrmää nämä palvelut liian riskialttiina ja korostavat esimerkiksi regulaation tarvetta turvaverkoksi ennen kyseisten palveluiden laajempaa käyttöönottoa.
Lue blogista, miten Netvisorin tietoturvasta pidetään huolta >>
Tekoälyssä on riskinsä
Laajoihin kielimalleihin pohjautuvien tekoälypalveluiden edut ovat kiistattomat tietyissä käyttötarkoituksissa. Hyödyntämällä kyseisiä palveluita siihen, mihin ne ovat alunperin suunniteltukin voi saada hyvinkin nopeasti tehokkuutta esimerkiksi tekstintuotantoon, ohjelmointiin tai vaikka uusien asioiden opiskeluun.
Palveluita kuten ChatGPT:tä käytettäessä tulee kuitenkin aina muistaa myös se, että mikäli palvelu on ilmainen, sinä ja sinun tietosi muuttuvat tuotteeksi. Aika harva on varmasti lukenut esimerkiksi ChatGPT:n käyttöehdot sanasta sanaan ja joillekin voi tulla yllätyksenä se, että palveluun annetut syötteet eivät välttämättä pysykään enää oman yhtiösi liikesalaisuuksina.
Mikäli palvelu on ilmainen, sinä ja sinun tietosi muuttuvat tuotteeksi
Tästä esimerkkeinä jo lukuisat suuret yhtiöt kuten Apple, Amazon ja Samsung, ovat maailmanlaajuisesti rajoittaneet työntekijöidensä ChatGPT-käyttöä, koska riski heidän liikesalaisuuksiensa vuotamiseen on liian suuri.
Verkossa on myös paljon esimerkkejä siitä, miten ChatGPT:tä ja muita vastaavia palveluita voidaan huijata tuottamaan esimerkiksi haittaohjelmakoodia tai kyseisiä palveluita voidaan hyödyntää esimerkiksi tuottamaan hyvinkin sujuvaa suomen kieltä vaikkapa kalastelusähköpostiviesteihin.
Euroopassa on myös herännyt keskustelua siitä, miten ChatGPT ja muut vastaavat palvelut käsittelevät käyttäjiensä ja näiden palveluun syöttämisen henkilöiden henkilötietoja. Esimerkiksi Italia on ehtinyt kertaalleen kieltää ChatGPT:n käytön kokonaan.
Palvelua tuottava OpenAI kävi keskustelua Italian tietosuojaviranomaisten kanssa ja tämän jälkeen palvelu palautettiin käyttöön myös Italiassa. Regulaatio selvästi kulkee jälkijunassa, mutta mikä avuksi? Tulisiko yritysten odottaa vai ottaa palvelut jo käyttöön riskeistä huolimatta?
Miten organisaatioiden tulisi lähestyä tekoälypalveluiden käyttöönottoa?
Hyvä lähestymistapa on miettiä tekoälypalveluiden käyttöä riskienhallinnan kautta. Yrityksissä on varmasti hyvin paljon erilaisia tarpeita, joista osaan voisi suoraan huoletta hyödyntää tämän päivän tekoälypalveluita ilman suurempia huolia.
Tästä esimerkkinä voisi olla vaikkapa julkisten verkkosivujen sisällöntuotanto, jonka tehostamisessa kyseisiä palveluita on helppo hyödyntää ja riskitaso kaiken materiaalin ollessa täysin julkista on käytännössä olematon.
Kielimallien hyödyntäminen on mahdollista myös turvallisesti
Ohjelmistokehityksessä ChatGPT:n taustalla toimivaa kielimallia pystyy hyödyntämään ainakin Microsoft Azuren kautta niin, että kaikki kielimallille annettavat syötteet pysyvät halutuissa palvelinkeskuksissa ja tietoa ei viedä organisaation oman ympäristön ulkopuolelle.
Kannattaa toki varmistaa omien lakiasiantuntijoiden avustuksella sopimukset, että ne ovat kunnossa, mutta hyödyntämällä näitä maksullisia palveluita on kielimallien hyödyntäminen mahdollista myös turvallisesti.
Tekoäly voi lisätä tietoturvaa
Olen mielenkiinnolla seurannut myös sitä, miten tietoturvakenttä on myös herännyt hyödyntämään tekoälypohjaisia palveluita esimerkiksi anomalioiden tunnistamiseen ja tekemään tietoturvaan liittyviä ratkaisuja, jotka helpottavat meidän käyttäjien jokapäiväistä arkea.
Toivon, että tämä kehitys jatkuu ja hyvät vs. pahat kamppailussa hyvän puolesta toimivat tietoturvasankarit pystyvät tekoälyn avulla kukistamaan rikolliset pysyvästi.
Toivon, että hyvän puolesta toimivat tietoturvasankarit pystyvät tekoälyn avulla kukistamaan rikolliset pysyvästi
Meillä Vismalla on seurattu tekoälykentän kehitystä jo vuosia ja käynnissä onkin useita projekteja koko konsernin laajuisesti, joissa pyritään tehostamaan toimintaa asiakaspalvelusta ohjelmistokehitykseen ja kaikkea siltä väliltä.
Konsernitasolla on määritetty selkeät linjaukset siitä, mitä tietoa ilmaisille tekoälypalveluille saa syötteenä antaa ja mitä taas ei. Ne helpottavat jokaisen näitä palveluita käyttävän arkea selkeyttämällä pelikenttää. Pidämme luonnollisesti kiinni siitä, että mitään luottamuksellisia tietoja ei voida viedä sellaiseen ympäristöön, jonka tietojenkäsittelystä meillä ei ole täyttä varmuutta.
Uskaltaisinko minäkin?
Suosittelen kaikkia kokeilemaan esimerkiksi keskustelua ChatGPT:n kanssa ja kuvien ja grafiikan tuottamista Dalle-palvelun avulla. Olen itse muun muassa antanut ChatGPT:n kirjoittaa lapsilleni iltasadun ja huomaan jo nyt usein kysyväni palvelulta, että miten joku tietty tekninen yksityiskohta voidaan selittää kansankielellä.
Kuten monien muidenkin uusien teknologioiden kanssa, hyödyt ovat tekoälypalveluiden käytössä ilmeiset, kunhan muistaa vanhan sanonnan eli “tekoäly on hyvä renki mutta huono isäntä”. On tärkeää pysyä itse kuskin penkillä eikä vain ajautua teknologia-aallon vietäväksi. Tällöin myös riskit pysyvät hallinnassa ja teknologia tekee vain sitä mihin sitä halutaan käyttää.