Tekoäly, tai oikeastaan isot kielimallit (LLM), on muutaman viime vuoden aikana arkistunut ja luonut myös paljon hypeä yritysten puheisiin, odotuksia ja pelkoja ihmisten ajatuksiin, sekä kuplaa markkinoille. Tietotyöläisen arjessa tekoälyapurit ovat käytön mahdollisuuksien mukaan tuoneet uutta näkökulmaa, miten esimerkiksi ohjelmistokehitystä voi tehostaa. Mutta yksi kysymys jää usein huomioimatta: Kuka omistaa tekoälyn tuottaman koodin ja muut sen luomukset? Tähän kysymykseen Fraktio järjesti mainion webinaarin 2.12.2025: Tekijänoikeudet: kuka omistaa tekoälyn tuottaman koodin ja muut sen luomukset?
Webinaarissa tekijänoikeusjuristi ja diplomi-insinööri Herkko Hietanen (Reson) ja Joonas Pajunen (Fraktio) keskustelivat tekoälyn, tekijänoikeuksien ja sopimusten suhdetta käytännönläheisesti – erityisesti ohjelmistokehityksen näkökulmasta. Tässä Robu-kollegani Johanna Rahtun tekemät muistiinpanot käyttäen AI Fireflies tekoälyä. Kuvituskuvat on luonut Copilot.
tl;dr;
- Tekoäly muuttaa tekijänoikeuskäytäntöjä: Ei synny tekijänoikeutta tekoälyn tuottamille sisällöille, tekijä aina ihminen.
- Deterministisyys ja epävarmuus: Tekoälyjärjestelmien tulokset vaihtelevat, vaikeuttaa virheiden selvittämistä ja vastuukysymyksiä.
- Selkeä liiketoimintalähtöisyys tarpeen: Tekoälyprojektit vaativat liiketoiminnan tarpeiden määrittelyä ja riskien arviointia ennen aloittamista.
- Shadow AI uhkaa turvallisuutta: Epäviralliset käytännöt voivat hajauttaa tietoa ja johtaa epäonnistuneisiin hankkeisiin yrityksissä.
- EU:n säädös tuo vaatimuksia: Riskiluokitukset ja läpinäkyvyys tärkeitä tekoälyn yhteydessä; voimassa ensi vuonna.
- Uuden kirjan julkaisu: ”Tekoälysopimukset” tarjoaa käytännön ohjeita sopimuksiin ja parantaa päätöksentekoa yrityksissä.
Muistiinpanot
Seuraavat kappaleet ovat AI Fireflies -tekoälymuistiinpanotyökalun kirjoittamia.

Teknologian ja tekijänoikeuksien haasteet tekoälyn aikakaudella
Tekoäly muuttaa tekijänoikeuskäytäntöjä radikaalisti ja vaatii uudenlaista sääntelyä ja vastuunkantoa.
Tekoäly nähdään remix-kulttuurin huipentumana, joka luo täysin uutta sisältöä, ei vain kopioi aiempaa (01:59)
- Tekijänoikeuslaki on historian saatossa mukautunut teknologiamurroksiin, mutta tekoäly haastaa perinteiset teoriat täysin.
- Juristi Hanne Hirvonen korosti, että tekoälyn tuottamalle materiaalille ei synny tekijänoikeutta, koska tekijä on aina ihminen.
- Tämä muutos johtaa tarpeeseen uudistaa sopimuksia ja sopimusehtoja tekoälyjärjestelmien osalta.
- Vastuu tekoälyn käytöstä ja tuotoksista on käyttäjällä, erityisesti koodin tuottamisessa.
Tekoälyjärjestelmien deterministisyydestä poiketen tulokset ovat epävarmoja, mikä vaikeuttaa virheiden selvittämistä ja vastuukysymyksiä (07:48)
- Samalla kun järjestelmät tuottavat erilaisia vastauksia samaan syötteeseen, virheiden syiden selvittäminen on vaikeaa.
- Asiakkaiden kanssa ratkotaan, mikä on ostettu ominaisuus ja kuka kantaa vastuun.
- Tämä vaatii uudenlaista sopimusosaamista sekä selkeää riskienhallintaa.
- Koodin siirtäminen backendiin ja liikesalaisuuksien suojaaminen ovat keskeisiä vastatoimia kopioinnin estämiseksi.
Tekoälyprojektien suunnittelu ja hankintaprosessit
Tekoälyhankinnat vaativat selkeän liiketoimintalähtöisyyden, riskien arvioinnin ja sopimusratkaisut oikeiden tulosten varmistamiseksi.
Ennen tekoälyprojektin aloittamista tulee määrittää liiketoiminnan tarve ja vaikutukset prosesseihin (23:50)
- Hirvonen korosti, että ilman selkeää tavoitetta tekoälyhankkeet voivat jäädä käyttämättömiksi.
- Pilottivaiheessa pitää testata teknologian toimivuutta, käyttäjämäärää ja kustannustehokkuutta.
- Sopimuksiin on sisällytettävä mittarit ja kustannusten hallinta.
- Päätös omasta laitteistosta tai pilvipalveluista perustuu datan laatuun ja käyttövaatimuksiin.
Mallien valinta vaikuttaa kustannuksiin, toiminnallisuuksiin ja sääntelyvaatimuksiin (27:35)
- Tarvitaanko suuri monipuolinen malli vai pienempi, tehtäväkohtainen ratkaisu?
- Mallien ajaminen omassa konesalissa voi parantaa tietoturvaa ja lakiteknistä hallintaa.
- Jatkuva kouluttaminen on välttämätöntä, jotta malli pysyy käyttökelpoisena.
- Valintoihin vaikuttavat myös käsiteltävien sopimusten määrä ja analysointivaatimukset.
Tietoturva, luottamus ja shadow AI -ilmiö yrityksissä
Yrityksissä esiintyy varovaisuutta virallisten tekoälytyökalujen käytössä, mikä lisää epävirallisten ratkaisujen riskiä.
Shadow AI eli työntekijöiden omaehtoinen tekoälyn käyttö uhkaa yrityksen tietoturvaa ja yhtenäisyyttä (34:09)
- Hirvonen huomautti, että tämä ilmiö voi johtaa epäonnistuneisiin hankkeisiin ja tiedon hajautumiseen.
- Viralliset ratkaisut voivat jäädä vaille käyttöä, jos käyttäjät kokevat ne hitaiksi tai tehottomiksi.
- Riskienhallinta vaatii selkeitä ohjeita ja kannustamista hyväksyttyjen työkalujen käyttöön.
- Yritysjohdon haasteena on saada tasapaino turvallisuuden ja innovoinnin välille.
Tietojen käyttöehtojen ja datan hallinnan epäselvyydet lisäävät luottamusongelmia (36:22)
- Esimerkiksi Google Gemini -palvelun käyttöehdoissa on riskejä datan uudelleenkäytöstä koulutuksessa.
- Yritysten tulisi arvioida, miten työntekijöiden käyttämä data voi päätyä ulkopuoliseen koulutukseen.
- Kontrolloidut ja omat AI-ratkaisut vähentävät tätä riskiä.
- Luottamuksen puute voi hidastaa tekoälyn laajempaa hyväksyntää organisaatioissa.
Kansainvälinen sääntely ja vastuut tekoälyn käytössä
Tekoälyn sääntely on laaja-alainen, riskipohjainen ja vaatii selkeää riskien arviointia kaikilta toimijoilta.
EU:n tekoälysäädös asettaa riskiluokat ja vaatimukset läpinäkyvyydelle sekä riskienhallinnalle (43:34)
- Kiellettyjä ovat esimerkiksi ihmisten tunneanalyysi ja muut korkean riskin toiminnot.
- Yritysten on tehtävä riskiarvioita ja osoitettava vastuullisuus käyttöönottovaiheessa.
- Sääntelyn odotetaan olevan voimassa kokonaisuudessaan ensi vuonna.
- Tämä muistuttaa GDPR:n riskipohjaista lähestymistapaa ja edellyttää jatkuvaa dokumentointia.
Kansainväliset lainsäädännöt ovat pitkälti samansuuntaisia, mutta paikallisia eroja on (43:34)
- Tekijänoikeuksien ja deepfake-sääntelyn ympärillä on aktiivista lainsäädäntökehitystä eri maissa, kuten Tanskassa ja Italiassa.
- YK:n sopimukset tukevat yleisiä periaatteita teosten suojaamisesta.
- Kansainväliset erot voivat kuitenkin vaikuttaa sopimuksiin ja toimintaan globaaleissa yrityksissä.
- Yritysten on pidettävä silmällä sekä paikallista että EU-tason sääntelyä.
Tekoälytuotosten oikeudet ja käyttäjän vastuut
Tekoälyn tuottamien sisältöjen tekijänoikeudet ovat vähäiset, ja vastuu tuotoksista on pääasiassa käyttäjällä.
Tekoälyn tuottamalle sisällölle ei synny tekijänoikeutta, koska tekijä voi olla vain ihminen (11:34)
- Tämä tarkoittaa, että tekoälyllä tuotettua koodia tai materiaalia ei voi suojata tekijänoikeudella.
- Käyttäjän vastuulla on hyväksyä tai hylätä tekoälyn tuottamat lopputulokset.
- Tämä asettaa haasteita esimerkiksi pelien ja sovellusten julkaisemisessa nimissä.
- Tekijyys liittyy myös vastuuseen siitä, mitä tuotoksessa sanotaan tai esitetään.
Open source -projekteissa tekoälyn käyttö aiheuttaa epäselvyyksiä tekijyydestä ja lisensoinnista (52:02)
- Jos tekoälyllä tuotetut koodimuutokset otetaan osaksi projektia, tekijänoikeuksien osoittaminen vaikeutuu.
- Tämä voi heikentää lisenssien voimassaoloa ja rajoittaa oikeuksien valvontaa.
- Tarvitaan uusia käytäntöjä ja sopimusehtoja tekoälyn tuottaman koodin käsittelyyn.
- Tämä on keskeinen kysymys erityisesti suurissa ohjelmistokehitysprojekteissa.
Kirjaprojekti ja tiedon jakaminen tekoälyjuridiikasta
Uusi kirja tuo selkeyttä tekoälyhankintojen sopimusasioihin ja auttaa yrityksiä tekemään parempia päätöksiä.
Kirja ”Tekoälysopimukset” valmistuu maaliskuussa ja tarjoaa käytännön ohjeita sopimusten tekemiseen (48:18)
- Kirjoittajat Hanne Hirvonen ja kollega haluavat selkeyttää juridiikan ja liiketoiminnan välistä ymmärrystä.
- Kirja käsittelee sopimusehtoja, riitojen välttämistä ja mallien valinnan vaikutusta.
- Se pyrkii vähentämään turhia juridiikkakustannuksia ja keskittymään olennaisiin riskeihin.
- Kirjaprojekti perustuu viimeisimpiin markkinahavaintoihin ja sääntelykehitykseen.
Action items
- Seuraa tekoälyyn liittyvää oikeuskäytäntöä ja sääntelykehitystä; päivitä yrityksen käytäntöjä niiden mukaisesti (00:00)
- Laadi ohjeistukset tekoälyn käytöstä organisaation sisällä mukaan lukien vastuu ja riskienhallinta (09:29)
- Suunnittele ja osallistu tekoälyprojektin hankintaprosessin ja sopimusten valmisteluun huomioiden juridiset ja liiketoiminnalliset näkökulmat (20:00)
- Arvioi eri mallivaihtoehtoja liittyen toiminnan laajuuteen, tietoturvaan ja sääntelyyn (29:22)
- Hallinnoi Shadow AI -käytön riskejä ja edistä virallisten työkalujen käyttöä organisaatiossa (33:00)
- Varmista henkilöstön koulutus ja sitouttaminen tekoälyn käyttöön sekä johdon tuki (37:00)
- Ole mukana seuraamassa kansainvälisiä sääntelykehityksiä sekä EU:n AI Actin ja tekijänoikeuslakien soveltamista (41:00)
- Valmistele osallistuminen tekoälysopimuksia käsittelevään kirjaprojektiin ja hyödynnä sen sisältöä organisaation koulutuksissa (47:30)
- Seuraa tekoälyn tekijänoikeuskäytäntöjen kehittymistä ja mahdollisia oikeudellisia näkökulmia tuotteiden julkaisussa (51:30)
- Tutki deepfake-ääniin ja kopiointiin liittyviä oikeustapauksia ja sovella oppeja oman organisaation toimintamalleihin (56:30)
- Varmista, että organisaatio hyödyntää Reson.fi -blogin materiaalia ja seuraa tulevaa kirjaa tekoälyoikeudesta (58:00)
päivitetty 4.12.2025
Fraktion tarjoamat muistiinpanot webinaarista
- Tekoäly tekijänoikeuden näkökulmasta: suuret kielimallit ovat käytännössä “ultimate remix -koneita”: ne imevät sisäänsä valtavia määriä dataa ja tuottavat sen pohjalta uutta sisältöä. EU:ssa laaja datalouhinnan poikkeus mahdollistaa tekijänoikeudella suojatun materiaalin käytön kielimallien koulutukseen, kun tietyt ehdot täyttyvät. Muualla maailmassa (esim. USA) tilanne on osin erilainen.
- Kuka omistaa tekoälyn tuottaman koodin? Nykytilanne: tekoälyn itsensä tuottama sisältö ei yleensä saa tekijänoikeussuojaa. Tämä koskee mm. koodia, tekstiä, kuvia ja ääntä, jotka ovat “suoraan” tekoälyn tuotoksia. Käytännössä tällainen sisältö on lähellä public domainia: kuka tahansa voi kopioida ja käyttää sitä.
- Tämä herättää isoja kysymyksiä: jos merkittävä osa koodista on tuotettu tekoälyllä, heikkeneekö mahdollisuus puolustaa omaa koodia kopiointiväitteitä vastaan? Jos joku väittää, että koodi loukkaa heidän oikeuksiaan, voidaan jatkossa jopa argumentoida: “tähän ei alun perinkään syntynyt tekijänoikeuksia, koska se on tekoälyn tuottamaa”.
- Vastuu virheistä ja riskeistä: perinteisesti deterministisessä järjestelmässä virheitä voi jäljittää ja osoittaa vastuuta. Tekoälyjärjestelmissä sama syöte voi tuottaa eri lopputuloksia ja järjestelmä on niin monimutkainen, ettei yksittäistä virheen aiheuttajaa yleensä voida osoittaa.
- Käytännössä käyttäjä vastaa siitä, mitä tuotoksia ottaa käyttöön (esim. AI-generoitu koodi tuotantoon). Organisaation on hyvä varautua sopimuksissa, ohjeistuksissa ja riskienhallinnassa siihen, että virheitä syntyy väistämättä.
- Sopimukset ja tekoälyn käyttö ohjelmistoprojekteissa: kun tilaat tai toteutat ohjelmistoprojektin, kannattaa pohtia ainakin:
- Liiketoimintatavoite: mitä ongelmaa tekoäly ratkaisee? Miten se muuttaa työnkulkuja ja kenen työhön se vaikuttaa?
- Onko kyse “bulkista” vai kruununjalokivestä: perusratkaisuissa AI-avusteinen koodaus voi olla järkevää ja tehokasta. Jos kehitetään jotain aidosti uutta ja strategisesti tärkeää, voi olla perusteltua kieltää tekoälyn käyttö sekä omalta tiimiltä että kumppaneilta.
- Sopimuksiin liittyviä huomioita: miten määritellään, mitä ollaan ostamassa: ominaisuus vs. kokonainen tekoälyjärjestelmä? Kuka vastaa mistäkin: mallin valinnasta, datasta, koulutuksesta, virheistä? Miten kustannuksia seurataan ja rajoitetaan? Onko malli kertaluonteisesti koulutettava vai vaatiiko se jatkuvaa ylläpitoa ja uudelleenkoulutusta?
- EU:n AI Act ja muu sääntely: AI Act pohjautuu riskiperustaiseen ajatteluun ja tietyt AI-käyttötavat (esim. tunteiden tunnistaminen ihmisistä) on kielletty kokonaan ja korkean riskin järjestelmiin on tiukemmat velvoitteet. AI Act edellyttää mm. läpinäkyvyyttä eli käyttäjälle on kerrottava, että hän asioi tekoälyn kanssa sekä riskien arviointia ja dokumentointia – hieman GDPR:n tyyliin. Käytännössä tämä tarkoittaa, että tekoälyhankkeissa on jatkossa pakko miettiä riskit ja käyttötarkoitus etukäteen.
- Shadow AI ja dataturva: Monissa organisaatioissa työntekijät käyttävät “omia” AI-työkaluja (ChatGPT, Gemini, Copilot tms.) organisaation virallisten työkalujen ohi. Riskinä on luottamuksellisen tiedon valuminen palveluihin, joiden käyttöehdot eivät ole yrityksen hallinnassa ja hyvienkin sisäisten AI-ratkaisujen käyttämättä jääminen. Suositus tehdä selkeät linjaukset ja ohjeet tekoälyn käytöstä, kannustaa henkilöstöä hyväksyttyjen työkalujen käyttöön ja perustella miksi jokin työkalu on ok ja toinen ei.
Lopuksi: Tekoäly ei poista juridiikan tai ohjelmistokehityksen tarvetta – se muuttaa työn luonnetta. On tärkeämpää kysyä “mihin suuntaan olemme menossa?” kuin “toimiiko tämä pilotti teknisesti?”. On parempi tehdä tietoisia valintoja tekoälyn käytöstä (myös rajoituksista), kuin ajautua varjo- ja yksittäiskäyttöön.

