Jos englanti sujuu, niin tässä on helmikuun 2023 lopulta Last Week Tonight with John Oliver käsittelemässä tekoälyä.
En huomannut mitään kyseenalaisia väitteitä tässä videossa, eli suosittelen kuuntelemaan.
En huomannut mitään kyseenalaisia väitteitä tässä videossa, eli suosittelen kuuntelemaan.
Data sitä, data tätä, Datakeskeinen, datavetoinen ja niin edelleen. Yksi nykyaikana kaikkialle levinnyt sana, jonka tarkka merkitys on täysin tapauskohtainen.
Data on yksinkertaisesti kasa faktoja, jotka on kerätty tiettyä käyttöä varten. Joskus nämä faktat voivat olla jopa tosia, mutta sille ei ole käytännössä mitään takeita. (Tämä on aihe tulevalle postaukselle.) Yleensä datassa olevat tietueet ovat muodoltaan identtisiä, eli kaikki ovat esimerkiksi saman kokoisia kuvia taikka sisältävät samat tiedot eri autoista.
Tieto on paljon muutakin kuin mitä data, se on fysiikan lakeja, matemaattisia kaavoja, syy-seuraus -suhteita. Ihmiskunta on kerännyt uskomattoman määrän tietoa, jonka hyödyntäminen on vasta lastenkengissä tekoälyn suhteen.
Yksi suuri hankaluus tämän tiedon hyödyntämisessä on se, että se on hajautettuna joka puolelle ja harvoin koneen ymmärrettävässä muodossa. Monesti tekoälyn kehittäjiltä uupuu suuri määrä jopa kriitistä tietoa tekoälyn sovellusalasta, esimerkkinä COVIDia havaitsevat tekoälyt jotka eivät toimineetkaan. Harva tekoälyekspertti on röntgenekspertti ja toisinpäin. Tämä ongelma tulee esille myös monissa muissa tietotekniikkaprojekteissa, ei vain tekoälyprojekteissa. Jos tekijöillä ei ole tietoa siitä miten ohjelmistoa käytetään se ei toimi suoraan paketista.
Itseäni ei ihmetytä yhtään se, että kielipohjainen tekoäly ei tiedä mitään vaan tuottaa väärää tietoa. Minua ihmetyttää se, että Googlella ei huomattu tätä ja moka päästettiin mainosmateriaaliin. Bardi väitti että muutama vuosi sitten kiertoradalle lähetetty JWST otti ensimmäisen kuvan toista tähteä kiertävästä planeetasta, kun todellisuudessa ensimmäinen kuva otettiin liki 20 vuotta sitten.
Kun tämä moka tuli julkisuuteen, Googlen osakkeiden arvo käytännössä romahti. Edellinen postaukseni: Chat GPT dominoi uutisia kertoo mistä tässä on kyse. Kielitekoälyt ovat papukaijoja, jotka toistavat oppimaansa, eivät tiedosta totuusarvoja.
Tämä koko juttu mielestäni kertoo siitä kuinka vähän päättävässäkin asemassa olevat ymmärtävät tekoälyn toiminnasta. Yksi tämän blogin tehtävistä on lisätä ymmärrystä tekoälyn toiminnasta. Jos tekoälyn älyttömyyttä ei ymmärrä, niin helposti uskoo sen ylivertaisuuteen ja kun totuus tulee vastaan niin tämä usko romahtaa ja korvaantuu liiallisella skeptisyydellä. Tämä taasen johtaa tekoälyvastaisuuteen, joka hidastaa tekoälyn käyttöönottoa niissäkin tilanteissa, joissa se olisi etu.
Tammikuun YLE:n uutisointi tekoälystä keskittyi liki täysin Chat GPT:n käsittelyyn. Kuusi yhdeksästä tekoälyä käsittelevästä uutisesta vähintäänkin sivusi Chat GPT:tä.
Tässä blogissa keskustellaan tekoälystä, sen käytöstä ja siihen liittyvästä tutkimuksesta. Aloitin väitöskirjatutkimuksen generativiisesta tekoälystä viime vuonna (2022), mutta informaatioteknologian graduni käsitteli jo sitä mitä COVID-diagnoosia tekevältä tekoälyltä vaaditaan.
COVID-aiheinen työni vahvisti aikaisempaa epäluuloani tekoälyn suhteen. Suurin osa mediassa hehkutetuista COVIDiin liittyvistä tekoälysovelluksista oli täysin sopimattomia lääketieteelliseen käyttöön. Selkein puute oli tekoälyn kehittäjien tietämättömyys lääketieteen alalta ja kiire saada työt julkaistua ilman kunnollista testausta.
Perinteisesti tekoäly koulutetaan puhtaasti käyttäen "dataa", joka sisältää ainoastaan yksittäisiä "tietopisteitä". Yksittäinen tietopiste antaa kasan arvoja jotka liittyvät jotenkin toisiinsa, esimerkkeinä tästä käyvät yksittäinen kuva ja auton tekniset tiedot. Koulutettaessa tekoälyä se käy läpi tätä dataa etsien miten näiden tietopisteiden antamat arvot riippuvat toisistaan. Kuvien kohdalla se esimerkiksi oppii että jos kuvassa on avattuja sateenvarjoja niin siinä on myöskin vesisadetta, taikka jos siinä on ruohoa niin siinä on myös lampaita. Tämä on ongelma kun tekoälylle annetaan kuva joka ei vastaakkaan näitä opittuja tilanteita, esimerkiksi aurinkovarjo, taikka linnut istumassa nurmella.
Oma tutkimukseni pyrkii antamaan tekoälylle muutakin tietoa, jolla voimme estää tälläisen virheellisen oppimisen. Yksi näistä tiedoista on syy-seuraus -suhde, joka on monesti tiedossa: sateenvarjo ei aiheuta sadetta, mutta sade lisää sateenvarjojen esiintyvyyttä. Toinen tieto on matemaattiiset kaavat, tiedämme yleensä kuinka fysiikan tulee käyttäytyä tilanteessa ja voimme laittaa sen ennakkotietona tekoälylle.
Tarkoituksenani on kirjoittaa tätä blogia pari kertaa viikossa, mutta nyt on juurikin apurahojen hakukausi niin aika on tiukassa helmikuun loppuun saakka.
Jos englanti sujuu, niin tässä on helmikuun 2023 lopulta Last Week Tonight with John Oliver käsittelemässä tekoälyä. En huomannut mitään ky...