MICROSOFT 365 COPILOT – 4 OIKEUDELLISTA KYSYMYSTÄ TEKOÄLYN KÄYTÖSTÄ

Mitä oikeudellisia kysymyksiä ja liiketoiminnan riskejä on otettava huomioon, jos harkitsee GPT-tekoälymallin kytkemistä organisaation järjestelmiin?

Kauan odotettu Microsoft 365 Copilot on vihdoin lanseerattu ja on nyt tarjolla organisaatioiden käyttöön. Microsoft 365 Copilot tuo GPT-tekoälymallit osaksi tavanomaisia M365-sovelluksia, kuten Outlookia, Wordia, PowerPointia ja Teamsiä. Copilotin avulla loppukäyttäjä voi antaa käskyjä sovelluksissa, joihin ohjelma vastaa esimerkiksi muokkaamalla sisältöä tai luomalla uutta aineistoa.

Kun Copilotin taustalla oleva OpenAI:n GPT-tekoälymalli kytketään oman organisaation sisältödataan, niin sen myötä nousee vääjäämättä oikeudellisia kysymyksiä ja liiketoiminnan riskejä, jotka on pyrittävä huomioimaan ennakollisesti ennen käyttöönottoa. Näin on myös muiden generatiiviseen tekoälyyn pohjautuvien sovellusten käyttöönotossa.

 

Tekijänoikeusloukkauksiin liittyvät riskit

Yksi keskeisimmistä riskeistä generatiivisen tekoälyn käytössä on tekijänoikeusloukkaukset. Tämä pätee myös Microsoft 365 Copilotiin, sillä sen taustalla oleva GPT-tekoälymälli on opetettu käyttämällä tekijänoikeuksin suojattua aineistoa. Tämä tarkoittaa, että Copilotin loppukäyttäjälle tuottama sisältö voi olla tekijänoikeudellisesti suojattua.

Loppukäyttäjän voi olla haastavaa arvioida, milloin Copilotin generoiman sisällön hyödyntäminen muodostaa tekijänoikeusrikkomuksen, sillä tekijänoikeuksin suojattavaa sisältöä tai oikeudenhaltijaa ei ole erikseen ilmaistu. Lisäksi tietoa siitä, onko Microsoft hankkinut oikeudenhaltijoiden suostumuksen aineiston käyttöön ei ole yleisesti saatavilla.

 

Sopimukselliset sitoumukset tekijänoikeusloukkauksia koskien

Asiakkaisiin kohdistuvien tekijänoikeusriskien vähentämiseksi Microsoft on julkaissut sitoumuksensa tekijänoikeusrikkomusten varalle. Tämä sitoumus astui voimaan 1.10.2023, ja se on myös osa Microsoft Copilotin käyttöön soveltuvia ehtoja.

Sitoumuksen mukaisesti Microsoft sitoutuu puolustamaan asiakasta mahdollisissa immateriaalioikeuksiin perustuvissa kanteissa, jotka johtuvat Copilotin tuottamasta sisällöstä, sekä korvaamaan näistä aiheutuvat vahingot. Tämä sitoumus kattaa erityisesti tekijänoikeusloukkaukset.

Sitoumuksen soveltuvuuden edellytyksenä on kuitenkin se, että asiakas käyttää Copilotin sisäänrakennettuja suodattimia ja muita turvamekanismeja. Käsityksemme tällä hetkellä on, että nämä suodattimet ja turvamekanismit olisivat oletusarvoisesti päällä, eikä asiakkailta vaadittaisi siltä osin lisätoimenpiteitä.

 

Luottamuksellisuus- ja tietovuotoriskit

Toinen yleinen riski generatiivisen tekoälyn käytössä liittyy luottamuksellisuuteen ja tietovuotoihin. Luottamuksellisuus voi vaarantua esimerkiksi tilanteissa, joissa toimittajalla on oikeus käyttää tekoälylle syötettyä dataa koulutustarkoituksiin.

Riskin vähentämiseksi Microsoft on päivittänyt Copilotin käyttöön soveltuvia ehtoja, joissa se takaa, että Microsoft ei käytä loppukäyttäjien prompteja, Copilotin asiakkaalle tuottamaa sisältöä tai muuta asiakasorganisaation sisältödataa tekoälymallien koulutustarkoituksiin.

Microsoftin sitoumukset tarjoavat tiettyä turvaa asiakkaille, mutta on tärkeää huomata, että Copilotin vuorovaikutus M365-ympäristön ulkopuolisten sovellusten kanssa voi vaarantaa asiakkaan aineistojen luottamuksellisuuden. Esimerkiksi jos Copilot hyödyntää julkista internetiä luodakseen vastauksen loppukäyttäjän promptiin, on tällöin mahdollista, että Copilot hyödyntää loppukäyttäjän saatavilla olevia organisaation aineistoja, joita se välittää M365-ympäristön ulkopuoliselle sovellukselle. Tämän ulkopuolisen sovelluksen toimintaan voi soveltua omat erityisehdot, jotka eivät takaa samaa suojaa kuin mitä Microsoft 365 ja Copilot -ehdot tarjoavat.

 

Datan hallinta ja pääsyoikeudet

Microsoft 365 Copilotin käyttöönotto edellyttää, että asiakasorganisaatiolla on kattava ymmärrys M365-ympäristössä olevasta omasta sisältödatasta, loppukäyttäjien pääsyoikeuksista ja ulkopuolisten sovellusten käytöstä sekä niihin liittyvistä tietovirroista ja ehdoista.

Salassapidettävä aineisto on suojattava ja varmistettava, että se ei päädy ulkopuolisille, mukaan lukien organisaation sisäiset tahot. Tässä yhteydessä myös työntekijöiden henkilökohtaisten materiaalien käsittely tulisi arvioida Copilotin käytön näkökulmasta. Microsoft 365 Copilotia hyödyntävät työnantajat joutuvatkin arvioimaan, miltä osin esimerkiksi työntekijöiden henkilökohtainen materiaali voidaan liittää Copilotin toiminnallisuuksiin.