Tekoäly


Renne Pesonen (julkaistu 25.8.2021)  

Tekoälyllä tarkoitetaan tietojenkäsittelyjärjestelmää, joka kykenee jollain tapaa älykkääseen käyttäytymiseen. Se toimii usein ihmisten toimintaa tukevana apuvälineenä joko automatisoimalla rutiineja tai hoitamalla monimutkaisia ja työläitä tietojenkäsittelytehtäviä. Tekoälyä käytetään myös muun muassa käyttöliittymissä ja autonomisten laitteiden ohjausjärjestelmissä. Tekoälysovellusten tullessa kasvavissa määrin osaksi yksityiselämän, talouden ja byrokratian osa-alueita painottuvat tekoälyn filosofiassa yhä enemmän yhteiskunta- ja teknologianfilosofiset sekä eettiset kysymykset.

Tämä artikkeli keskittyy tekoälyä koskeviin mielen- ja tieteenfilosofisiin kysymyksiin, jotka hallitsivat tekoälyä koskevaa filosofista keskustelua 1900-luvun loppupuolella ja jotka ovat edelleen keskeisiä mielenfilosofiassa sekä teoreettisessa kognitiotieteessä. Rajattujen teknisten sovellusten sijaan tekoälyn filosofiassa keskeinen teema on ollut älykkyyden yleinen luonnehtiminen, mikä on lähinnä tarkoittanut rationaalisen päättelyn ja päätöksenteon formaalien mallien soveltamista älykkäiden järjestelmien suunnittelussa ja korkean kognition mallintamisessa. Näihin malleihin lukeutuu erityisesti deduktiivinen logiikka mutta myös tilastollinen päättely ja jotkin esimerkiksi taloustieteissä käytetyt rationaalisen valinnan teoriat. Tekoälytutkimuksen toinen merkittävä juonne liittyy oppimiseen ja tilastollisiin malleihin, jonka juuret ulottuvat 1950-luvulle ja joka on viime aikoina muodostanut tekoälykeskustelun ytimen.

  1. Tekoälyn määritelmästä
  2. Vahva ja heikko tekoäly
  3. Algoritmit ja formaalit järjestelmät
  4. Logiikka ja tekoälyn matemaattinen tausta
  5. Turing-koneet ja Church–Turing-teesi
  6. Koneajattelu ja Turingin testi
  7. Funktionalismi, komputationalismi ja mielen monitoteutuvuus
  8. Klassinen komputationalismi, tekoäly ja kognitiotiede
  9. Keinotekoiset hermoverkot ja koneoppiminen
  10. Tekoälyn filosofista kritiikkiä
  11. Tekoälytutkimus Suomessa.
  12. Suositeltavaa jatkolukemistoa
  13. Kirjallisuus

 

1. Tekoälyn määritelmästä

Tekoälylle ei ole olemassa selvää määritelmää. Tekoälyllä tarkoitetaan yleensä tietojenkäsittelyjärjestelmää, tietokoneohjelmaa tai tarkemmin ohjelmistoagenttia, joka toimii älykkäästi tai suorittaa älykkyyttä vaativia tehtäviä. Selvästikään tämä ei ole kovin hyödyllinen luonnehdinta, koska se lähinnä täsmentää, että keinotekoinen äly on tuotettu automaattisen tietojenkäsittelyn avulla. Lisäksi määritelmä on samanaikaisesti liian tiukka mutta myös liian löyhä. Liian tiukka se on sikäli, että esimerkiksi visuaaliseen informaatioon perustuvien luokittelujärjestelmien katsotaan kuuluvan tekoälyn piiriin, mutta yleensä ei ajatella, että visuaalinen hahmontunnistus edellyttäisi älykkyyttä. Liian löyhä se taas on sikäli, että esimerkiksi integraalilaskenta ja yhtälöryhmien ratkonta edellyttävät älykkyyttä, mutta tällaista laskentaa suorittavat ohjelmat eivät lähtökohtaisesti edusta tekoälyä.

Usein tekoäly yhdistetään inhimillisen ajattelun tai laajemmin kognitiivisten prosessien simulointiin. Tällainen määritelmä kattaa niin sanottuun matalaan kognitioon liittyvät tietojenkäsittelytehtävät, kuten visuaalisen hahmontunnistuksen, ja myös korkeaan kognitioon liittyvät prosessit, kuten päättelyn, ongelmanratkonnan ja suunnittelun. Tekoäly ja tietojenkäsittelytiede laajemmin on ollut tärkeä väline kognitiotieteissä siitä asti, kun nämä saivat alkunsa 1950-luvulla. Kognitiotiede on monialainen tutkimushanke, joka tutkii mieltä nimenomaan tietojenkäsittelyjärjestelmänä. Tekoälyn lisäksi sen osa-alueisiin kuuluvat esimerkiksi kielitiede, aivotutkimus ja kognitiivinen psykologia, joissa kaikissa sovelletaan laskennallisia menetelmiä. Myös kognitiotieteen filosofia tarkastelee laskennallisten mallien käyttöä psykologisessa selittämisessä ja mielentilojen analysoinnissa.

Kuitenkin tekoälyn määrittely psykologisen mallintamisen avulla on kyseenalaista. Tiukasti ymmärrettynä se tarkoittaisi, että empiirinen psykologia lopulta kertoisi, mikä varsinaisesti on tekoälyä ja mikä ei, eli mitkä tekoälymallit vastaavat ihmismielen toimintaa. Tekoäly on kuitenkin pitkälti kehittynyt omana tutkimusalanaan, joka on vuorovaikutuksessa kognitiotieteiden kanssa mutta niistä riippumaton, eivätkä tekoälyjärjestelmät aina pyri mallintamaan psykologisia prosesseja. Tekoälyjärjestelmiä käytetään muun muassa päätöksenteon kuten vakuutuspäätösten tai kliinisen diagnostiikan apuvälineinä. Tällöin tekoäly onkin työkalu, jonka tarkoituksena ei ole simuloida inhimilliseen päätöksentekoon liittyvää järkeilyä vaan nimenomaan täydentää ja tukea sitä ihmiselle epätyypillisten tietojenkäsittelymenetelmien avulla. Voidaan toisaalta ajatella, että tekoäly liittyy johonkin ”yleisempään kognitioon”, jonka piiriin inhimillinen kognitiokin kuuluu, mutta tällaiselle yleiselle kognitiolle ei liene sen täsmällisempää määritelmää kuin tekoälyllekään.

Teknologian ja yhteiskuntafilosofian yhteydessä tekoälyä toisinaan luonnehditaankin liikkuvaksi maaliksi. Erityisesti kun siihen ladataan paljon mielikuvia ja lupauksia inhimillisen kaltaisesta tai jopa sen ylittävästä älykkyydestä, se vaikuttaa olevan aina jotain, joka on kohta tuloillaan ja josta esimakua on jo nähty lupaavien vaikkakin keskeneräisten sovellusten muodossa. Tällöin tekoälyä luonnehditaan lähinnä toiveiden ja lupausten avulla selventämättä täsmällisemmin, mitä nämä lupaukset ovat ja miten ne tullaan saavuttamaan. Esimerkiksi Hubert Dreyfus (1965,1992) on kritisoinut tällaista tekoälyä koskevaa epämääräistä optimismia. Toisaalta liikkuvan maalin idea toimii toisinkin päin. Dreyfus uumoili alun perin, että korkeatasoinen shakki olisi sääntöpohjaiselle algoritmille mahdoton haaste. Pian kuitenkin ilmaantui päteviä shakkiohjelmia, eikä korkeatasoistakaan shakkia pelaavia ohjelmia nykyään pidetä kovinkaan mielenkiintoisina esimerkkeinä tekoälystä. Näin siis se, mikä yhtenä ajankohtana voi vaikuttaa lähes uskomattomalta koneälyltä voi myöhemmin näyttäytyä täysin triviaalina, ja teknologian arkisuus sekä ihmisten käsitys sen mahdollisuuksista mitä ilmeisimmin vaikuttaa siihen, mikä kulloinkin mielletään tekoälyksi.

Toisaalta yleisessä keskustelussa tekoälyllä ei tarkoiteta vain tulevaisuuden utooppista teknologiaa. Päinvastoin 2010-luvulla tekoälyn käyttö, tai ainakin siitä puhuminen, on lisääntynyt huomattavasti osana erilaisia tietoteknillisiä sovelluksia mainosboteista asiakaspalvelusovelluksiin ja puhelinkameroista tieteelliseen data-analyysiin. Osin tässä on kyse uusien, erityisesti tilastollisiin menetelmiin ja koneoppimiseen liittyvien tekniikoiden nopeasta kehittymisestä, osin kyse on taas selvästi siitä, että uusien teknologioiden vanavedessä monia perinteisiä matemaattisia ja laskennallisia menetelmiä tavallisesta tilastollisesta analyysistä alkaen on ryhdytty kutsumaan tekoälyksi.

 

2. Vahva ja heikko tekoäly

Tekoälyn määritelmästä puhuttaessa on syytä erotella toisistaan niin sanottu heikko ja vahva tekoäly, joita kutsutaan myös ehkä osuvammin kapeaksi ja yleiseksi tekoälyksi. Heikko tekoäly tarkoittaa järjestelmää tai ohjelmaa, joka on suunniteltu tekemään jotain rajattua tehtävää yleensä melko ennustettavien syötteiden parissa ja rajatussa ympäristössä. Vahva tekoäly taas tarkoittaa yleistä järjestelmää siinä mielessä, että se kykenee ottamaan monenlaisia tehtäviä hoitaakseen, mukaan lukien sellaisia, joita varten sitä ei ole erikseen suunniteltu. Vahva tekoäly voisi siis ottaa syötteenä myös ohjeita uudenlaisten tehtävien suorittamiseksi ja toimimaan avoimessa ympäristössä. Joskus vahvalla tekoälyllä tarkoitetaan nimenomaan ihmisjärkeen verrattavaa tekoälyä.

Erityisesti filosofisissa yhteyksissä vahvalla ja heikolla tekoälyllä voidaan tarkoittaa myös John Searlen (1980) tekemää erottelua ihmismielen simulaation ja implementaation välillä. Tarkalleen ottaen Searle puhui vahvasta ja heikosta tekoälyteesistä. Heikko tekoälyteesi sanoo, että täysin ihmismielen kaltaisesti toimiva tekoäly on ainakin periaatteessa kehitettävissä, ja vahva tekoälyteesi taas sanoo, että tällainen tekoälyjärjestelmä myös on aidosti mentaalinen olio. Toisin sanoen heikon teesin mukaan ihmismieli on jäännöksettä simuloitavissa tietokoneella, mutta se ei välttämättä olisi aidosti mieli. Vahvan teesin mukaan taas mitään eroa ei ole mielen täydellisen tietokonesimulaation ja aidon mielen välillä, eli oikeanlainen tietojenkäsittelyjärjestelmä implementoi eli toteuttaa mielen ja niinpä se on myös kokeva, tunteva ja tietoinen olio.

Heikko tekoälyteesi siis edellyttää vahvan tekoälyn mahdollisuuden, ja tällaisen vahvan tekoälyn mahdollisuus on empiirinen kysymys. Vahvan tekoälyteesin totuus taas on avoin filosofinen kysymys, koska ei ole olemassa empiiristä menetelmää erottaa, mikä olio on tietoinen ja mikä ei ja mikä toiminta on näennäisesti ja mikä taas oikeasti mentaalista.

Tällä hetkellä kaikki tekoälyjärjestelmät edustavat heikkoa tekoälyä. Tämä on ilmeistä esimerkiksi shakkiohjelmien yhteydessä, jossa ohjelman koko ympäristön ja toiminta-avaruuden muodostaa shakkipeli, ja ohjelma luonnollisestikaan ei kykene muuhun kuin shakin pelaamiseen. Yleistä tekoälyä on koetettu kehittää jo 1950-luvulta lähtien laatimalla logiikkaan ja heuristisiin hakualgoritmeihin perustuvia järjestelmiä. Tällaiset järjestelmät osoittautuivat käytännössä varsin rajallisiksi, kuten ovat osoittautuneet myöhemmätkin logiikkaan perustuvat tekoälyt (Davis & Marcus 2015). Eräs keskeinen ongelma on, että niiden vaatima laskenta-aika usein kasvaa räjähdysmäisesti ongelmien ja syöteavaruuden monimutkaisuuden kasvaessa. Varhaiset ohjelmat eivät pyrkineet täydelliseen vastaavuuteen ihmismielen kanssa, mutta ainakin Newell ja Simon (1963, 1972) väittivät, että heidän ohjelmansa ovat psykologisia tutkielmia, jotka simuloivat inhimillisiä päättelyprosesseja.

Mainittakoon, että erilaiset chatbotit, asiakaspalvelurobotit ja virtuaaliavustajat, kuten Applen Siri ja Google Assistant saattavat vaikuttaa jossain määrin yleiseltä tekoälyltä. Ne ainakin näennäisesti tulkitsevat luonnollista kieltä ja pyrkivät joustavasti tuottamaan mielekkäitä vasteita. Käytännössä ne kuitenkin ovat vain rajattuun luonnollisen kielen tulkintaan pohjautuvia käyttöliittymiä. Chatbottien kyky järkevään keskusteluun on toistaiseksi kovin heikko. Luonnollisen kielen käsittely on yksi tekoälyn ydinalueista, mutta itsessään se ei edusta vahvaa tekoälyä.

 

3. Algoritmit ja formaalit järjestelmät

Formaalikielten, mekaanisen laskennan ja sääntöihin perustuvan järkeilyn tutkimus kuuluu logiikan ja matematiikan alaan, joilla oli pitkälti erilliset historiansa ennen matemaattisen logiikan syntyä 1800-luvulla. Logiikka on päättelyn taito ja tiede, jonka historia ulottuu ainakin antiikin Kreikkaan. Vastaavanlaista järjenkäytön tutkimusta harjoitettiin tosin samoihin aikoihin myös ainakin Intiassa (Ganeri 2004, Haaparanta 2009). Joka tapauksessa Aristotelesta usein pidetään deduktiivisen logiikan alullepanijana. Teoksessaan Ensimmäinen analytiikka hän erotti päättelyn sisällön ja muodon toisistaan ja tarkasteli päättelyjen pätevyyttä niiden loogisen muodon perusteella. Antiikin Kreikan geometrikkojen piirissä tunnettiin myös aksiomaattisen todistamisen idea. Lyhyesti määriteltynä aksioomajärjestelmät koostuvat joukosta itsestään selvästi tosia perusväitteitä (esim. ”jos x=y ja a=b, niin a+x = b+y”) ja joukosta päättelysääntöjä, joiden avulla aksioomista voidaan johtaa uusia tosia lauseita eli teoreemoja. (Ks. ”Logiikka”)

Nykyään kelvollisten aksioomajärjestelmien vähimmäisehtona pidetään luotettavuutta eli sitä, että päättelysääntöjen avulla voidaan tosista lauseista johtaa vain tosia lauseita. Ihannetapauksessa järjestelmä on lisäksi täydellinen, jolloin kaikki järjestelmän alaan kuuluvat todet lauseet voi johtaa sen sääntöjen avulla. Siis esimerkiksi täydellinen ja luotettava logiikan aksiomatisointi mahdollistaa kaikkien loogisesti tosien ja vain loogisesti tosien väitteiden ja seurausten johtamisen. Lisäksi matemaattiset aksioomajärjestelmät ovat aina sidoksissa johonkin hyvin määriteltyyn symbolikieleen, jolla sen kaavat ja säännöt ilmaistaan. Päättelysääntöjen avulla kaavoja voidaan manipuloida täysin mekaanisesti, eli periaatteessa ilman tarvetta ymmärtää, mitä ne tarkoittavat ja miksi ne pätevät. Näin ollen formaaleja kalkyylejä voidaan ajatella merkkien mekaanisena manipuloimisena, joka voidaan tehdä myös koneellisesti.

Aksioomajärjestelmät itsessään sisältävät vain sallittujen sääntöjen joukon. Päättelysäännöt eivät kerro, miten haluttu tulos voidaan johtaa. Formaalia järjestelmää kutsutaan ratkeavaksi, mikäli on olemassa mekaaninen menetelmä selvittää, onko annettu kaava johdettavissa, ja jos on, niin miten. Eli mikäli järjestelmä on ratkeava, niin on periaatteessa mahdollista laatia tietokoneohjelma, joka kykenee löytämään ratkaisun minkä tahansa kaavan päättelemiseksi. Tämä saattaa tosin olla käytännössä mahdotonta, koska vaadittu laskenta-aika voi olla epärealistisen pitkä.

Joka tapauksessa kaavojen johtaminen ja loogisen kalkyylin muu mielekäs käyttö edellyttää joko kekseliäisyyttä tai päättelysääntöjen oheen systemaattisen menetelmän, jonka avulla halutut tulokset saadaan johdettua. Mekaanisiin sääntöihin perustuvaa menetelmää kutsutaan algoritmiksi. Nimitys on peräisin 800-luvulla vaikuttaneen persialaisen matemaatikon Muḥammad ibn Mūsā al-Khwārizmīn nimestä, joskin erilaisia algoritmeja on merkitty muistiin jo Babyloniassa ja Egyptissä noin 2000–1500 eaa. Lukijalle tutuin formaalikieli lienee aritmetiikka, päättelysäännöistä taas sen yhtälönratkaisusäännöt ja matemaattisista algoritmeista allekkain laskeminen sekä jakokulman käyttö. Vaikka algoritmilla tarkoitetaan siis mitä tahansa sääntöjoukkoa, joka mahdollistaa mekaanisen laskennan esimerkiksi kynällä ja paperilla, nykyään algoritmeilla usein tarkoitetaan nimenomaan tietokoneohjelmia.

Algoritminen ongelmanratkaisu voidaan yleisesti mieltää annetun lähtötilan, toivotun lopputilan sekä hyvin määritellyn sääntöjoukon avulla, missä valittua sääntöä soveltamalla alkutila muuttuu toiseksi, joka edelleen voidaan muuttaa säännön avulla kolmanneksi, ja näin jatkamalla voidaan rakentaa polku alkutilasta haluttuun lopputilaan. Ongelma ei ole ratkaistavissa, mikäli tällaista polkua ei voida muodostaa, ja varsinaisen algoritmin tehtävä on siis löytää polku alkutilasta lopputilaan kaikkien mahdollisten umpikujien joukosta.

Joissain tapauksissa osa tilojen muutoksista ei ole tekoälyjärjestelmän hallinnassa. Näin on esimerkiksi shakkipelissä, jossa vastustaja valitsee joka toisen siirron. Algoritmi voi tietysti huomioida vastustajankin siirrot ja laskea joukon mahdollisia reittejä, joiden mukaisesti pelitilanne etenee sen omien sekä vastustajan siirtojen seurauksena. Peliteoria on tekoälyn kannalta tärkeä matematiikan haara, joka tutkii valintojen tekoa ja optimaalisia strategioita tällaisissa agenttien välisissä, mahdollisesti toistuvissa vuorovaikutustilanteissa.

Tekoälysovellukset voivat sääntö- ja päättelyjärjestelmien sijaan olla myös reaaliaikaisia säätö- ja toiminnanohjausjärjestelmiä, joiden tehtävänä on pitää järjestelmä toiminnassa ja sen parametrit sallituissa rajoissa. Esimerkiksi itsestään ohjautuvien autojen tapauksessa tekoälyn tehtävänä on pitää nopeus rajoitusten piirissä, auto ajokaistalla ja oikealla reitillä ja lisäksi reagoida yllättäviin tilanteisiin järkevällä tavalla. Tällaisten järjestelmien tutkimus kuuluu pääasiassa robotiikan ja kybernetiikan alaan, johon kuuluu myös aktiivisen havainnoinnin tutkimus. Monet tällaisista järjestelmistä perustuvat neuroverkkoihin, jotka loogisen kalkyylin sijaan soveltavat numeerista vektori- ja matriisilaskentaa ja ovat matemaattisesti sukua analyyttiselle geometrialle. Neuroverkkojen lisäksi on olemassa myös muita biologisista lähteistä perusideansa ammentavia lähestymistapoja, joista mainittakoon soluautomaatitevolutiiviset algoritmit ja parviäly.

 

4. Logiikka ja tekoälyn matemaattinen tausta

Tekoälyn historian tarkastelun voi aloittaa vuodesta 1956, jolloin New Hampshiren Hanoverissa sijaitsevassa Dartmouth Collegessa järjestettiin kaksi kuukautta kestävä kesäkoulu. Osallistujista huomattava osa kuului siihen ydinryhmään, joiden työ paljolti määritteli tekoälytutkimuksen hengen seuraavat kaksi tai kolme vuosikymmentä. Termi ”artificial intelligence” tiettävästi esiintyi ensimmäisen kerran tämän kesäkoulun rahoitushakemuksessa, jonka tiivistelmä on seuraava:

”Esitämme kahden kuukauden mittaisen ja kymmenen osallistujan tutkimushankeen järjestämistä New Hampshiressa Hanoverin Dartmouth Collegessa kesän 1956 aikana. Tutkimus lähtee oletuksesta, että oppiminen ja kaikki muu älykäs toiminta voidaan kuvata niin tarkasti, että se voidaan simuloida tietokoneen avulla. Pyrimme selvittämään, kuinka kone voidaan saada käyttämään kieltä, muodostamaan abstraktioita ja käsitteitä, ratkomaan ongelmia inhimilliseen tapaan sekä parantamaan omaa toimintaansa. Uskomme, että merkittävää edistystä saadaan aikaiseksi yhdessä tai useammassa näistä kysymyksistä, jos huolellisesti valikoitu ryhmä tutkijoita työskentelee niiden parissa kesän ajan.” (McCarthy ym. 1955.)

Filosofisesta näkökulmasta on kuitenkin tärkeää ymmärtää, miten tähän pisteeseen on päästy. Tekoälytutkimus on alusta alkaen, ja erityisesti ensimmäisinä vuosinaan, ollut hyvin filosofinen ala sikäli, että sen teoreettiset taustaoletukset eivät ole niinkään periytyneet psykologiasta ja aivotutkimuksesta vaan suurelta osin filosofiasta ja matemaattisesta logiikasta. Erityisesti mielenfilosofian kannalta tekoälyn historiassa yhdistyy kaksi tärkeää ajatusta: ensinnäkin että sisällöllinen ajattelu voidaan ymmärtää jonkinlaisena formaalina kalkyylina, ja toiseksi että mikä tahansa äärellinen ja hyvin määritelty formaali kalkyyli voidaan toteuttaa mekaanisesti fyysisellä tietokoneella. Tietokoneiden synnyn jälkeen jälkimmäistä on pidetty lähes määritelmällisesti totena, mutta ensiksi mainittu, rationalistisesta tietoteoriasta ja mielenfilosofiasta periytyvä väite on kiistanalainen. Mielen toimintaa voi kiistatta jossain mielessä mallintaa ja simuloida laskennallisten menetelmien avulla, mutta kognitiotieteen ja siihen liittyvän mielen- ja tieteenfilosofian kannalta ei silti ole mitenkään selvää, että tietojenkäsittelytieteiden käsitteistö ja laskennalliset mallinnusvälineet olisivat ainoa tai hedelmällisin tapa tarkastella mielen toimintaa. Emmehän pidä esimerkiksi kemiallisia prosesseja tietojenkäsittelynä, vaikka niitä voi mallintaa ja tutkia tietokoneiden avulla.

Käsitys, että ihminen on läpikotaisin materiaalinen ja mekaaninen olio, ei liity mitenkään erityisesti moderniin tieteeseen. Esimerkiksi antiikin atomistit kannattivat tällaista näkemystä osana materialistista luonnonfilosofiaansa. Varhaismodernina aikana ihmisen ja mielen mekanistisuuden puolesta puhuivat muiden muassa Thomas Hobbes (1999 [1651]) ja Julien Offray de La Mettrie (2003 [1747]).

Tekoälyn historian kannalta 1600-luvun filosofeista huomionarvoisin oli rationalisti Leibniz, joka oli vakuuttunut, että matemaattisen laskennan ja päättelyn lisäksi järkeily on yleisemminkin muunnettavissa symboliseksi laskennaksi. (Ks. ”Leibniz, Gottfried Wilhelm”.)  Häntä innoitti tässä suhteessa muun muassa filosofi Ramon Llullin teos Ars Magna (1305), jossa esitettiin, että jokaiseen tiedon alueeseen, kuten jumalaa, sielua ja moraalia koskevaan tietoon, kuuluu rajallinen määrä perusperiaatteita tai kategorioita. Llull pyrki systematisoimaan tätä tietoa eräänlaisen loogisen koneen avulla. Hän merkitsi kutakin tiedonalaa koskevat peruskäsitteet ympyränmuotoisten levyjen reunoille, ja pinosi eri tiedonaloja kuvaavia levyjä päällekkäin. Menemättä sen tarkemmin tämän omaperäisen menetelmän yksityiskohtiin, Llullin mukaan näitä ympyröitä eri kulmiin kääntelemällä voitiin esittää kaikki loogisesti mahdolliset suhteet eri tiedonalojen perusperiaatteiden välillä. Llullin työ tunnetaan lähinnä siitä, että se innoitti Leibnizia, mutta tämän lisäksi se on maininnan arvoinen myös koska Llullin laite on tiettävästi ensimmäinen mekaaninen koje, jonka tarkoitus oli toimia tiedon esittämisen ja loogisen päättelyn sekä todistamisen välineenä (Boden 2006, luku 2).

Leibniz oli myös merkittävä mekaanisten laskukoneiden kehittäjä, mutta tekoälyn historian kannalta tärkeämpi hanke oli hänen visioimansa rationaalinen kalkyyli, joka ennakoi modernia logiikkaa. Hän ajatteli, että oli laadittavissa jonkinlainen universaali symbolikieli, jolla mikä tahansa ajatus ja mielekäs väite voitaisiin ilmaista yksikäsitteisesti. Tuon kielen perussymbolien tuli vastata yksinkertaisia ideoita, joita yhdistelemällä voidaan koostaa monimutkaisempia ilmauksia. Mikä tahansa monimutkainen idea voitaisiin siis myös purkaa analyyttisesti sen pienimpiin merkitysyksiköihin. Logiikassa tätä purkamista ja merkitysyksiköistä taas uusien monimutkaisten ideoiden tai ilmausten muodostamista kutsutaan kompositionaalisuudeksi. Lisäksi tämän kielen yhteyteen tuli muotoilla sääntöjoukko, jota noudattamalla voitaisiin matemaattisen laskennon tapaan selvittää, mitä mistäkin väitteestä seuraa. Leibniz ajatteli, että kun kalkyyli on valmis, ei erimielisyyksiä enää tarvitse ratkoa väittelemällä, vaan kiistakumppanit voivat vain todeta ”laskekaamme!” ja ryhtyä toimeen (Leibniz 1688).

Ikävä kyllä Leibniz ei koskaan saanut kalkyyliään valmiiksi, mutta parisen vuosisataa myöhemmin saksalainen matemaatikko ja filosofi Gottlob Frege (1879) oleellisesti toteutti sen teoksessaan Begriffsschrift (”käsitekirjoitus”), joka alaotsikkonsa mukaan on ”aritmetiikan mukaan rakennettu puhtaan ajattelun formaalikieli.” Teos esitteli predikaattilogiikan eli sen formalismin, jota ”logiikalla” matematiikassa ja erityisesti filosofiassa lähtökohtaisesti tarkoitetaan. Tämän logiikan kehittäjiä oli Fregen lisäksi toki muitakin (ks. "”Logiikan historia”).

Fregeä arvelutti matematiikan nopea kehitys 1600-luvulta lähtien. Esimerkiksi integraalilaskenta tarjosi tehokkaita matemaattisia välineitä, mutta nämä välineet olivat myös varsin monimutkaisia ja niiden pätevyys ei ollut ilmeistä samaan tapaan kuin perusaritmetiikan. Lisäksi integraalilaskenta sisälsi jossain määrin epäilyttäviä käsitteitä, kuten infinitesimaali, joka on äärettömän pieni luku muttei kuitenkaan nolla. Ei ole aivan selvää, että kyseinen käsite on sisäisesti ristiriidaton. Osa matemaatikoista ryhtyi logisistiseen hankkeeseen, jonka oli määrä johtaa kaikki matematiikka aksiomatisoidun logiikan varmasta perustasta käsin. Logiikan formalisoinnin ja aksiomatisoinnin voi katsoa tulleen valmiiksi Fregen töissä. Kaiken matematiikan palauttaminen logiikkaan osoittautui kuitenkin lopulta mahdottomaksi, kun Kurt Gödel julkaisi vuonna 1931 kuuluisat epätäydellisyyslauseensa, joiden mukaan lukuteorialle ei ole täydellistä ja ristiriidatonta aksiomatisointia.

Vuotta aiemmin tosin julkaistiin Gödelin täydellisyystulos, jonka mukaan predikaattilogiikalle on olemassa täydellinen aksiomatisointi ja vieläpä ainakin osittain ratkeava, eli mikäli kaavasta A voidaan päätellä kaava B, niin on olemassa mekaaninen menetelmä tämän päättelyn löytämiseksi. Käytännössä tämä tarkoittaa, että oikein ohjelmoitu kone kykenee tekemään kaikki mahdolliset predikaattilogiikan päättelyt ja ratkaisemaan, miten väite johdetaan annetuista premisseistä. Kuitenkin Gödelin julkaistessa tuloksensa tietokoneen tai yleisen mekaanisen laskennan käsite ei vielä ollut selvästi määritelty eikä Gödelin tulos täysin selvittänyt kysymystä predikaattilogiikan ratkeavuudesta. Nimittäin jos kaava B ei ole pääteltävissä kaavasta A, niin voiko kone todeta tämän aina jokaisessa tapauksessa? Vuonna 1936 matemaatikot Alonzo Church (1903–1995) ja Alan Turing (1912–1954) löysivät toisistaan riippumatta kysymykseen kielteisen vastauksen.

Ratkeavuuskysymykset ovat tärkeitä tietojenkäsittelytieteiden kannalta, koska ne selventävät, mikä on mekaanisen laskennan avulla periaatteessa mahdollista ja mikä ei. Turingin, Churchin ja Gödelin pohtiessa näitä kysymyksiä kyseistä tieteenalaa ei tosin ollut olemassa, eikä myöskään tietokoneita, vaan heidän tutkimuksensa näiltä osin edusti puhdasta teoreettista matematiikkaa. Kysymys logiikan ratkeavuudesta on joka tapauksessa tekoälyn historian kannalta merkittävä siksi, että sen selvittäminen lopulta johti tietojenkäsittelytieteiden ja tietokoneiden syntyyn.

 

5. Turing-koneet ja Church–Turing-teesi

Alan Turing on yksi tunnetuimmista nimistä tietokoneiden ja tekoälyn historiassa. Hänen ideoimansa abstrakti laskennan malli, joka tunnetaan nykyään Turing-koneena, ja sen eri versiot muodostavat edelleen algoritmisen laskettavuuden teorian perustan. Siinä missä Alonzo Church lähestyi ratkeavuuskysymystä laatimalla abstraktin matemaattisen kalkyylin, Turing lähestyi ratkeavuus- ja laskettavuuskysymystä hieman konkreettisemmin. Hän ajatteli, että olisi laadittavissa kone, joka koostuu äärettömän pitkästä ruutuihin jaetusta nauhasta, kirjoitus- ja lukupäästä sekä kontrollilaitteesta.

Koneen kontrollilaite on eräänlainen prosessori, joka koostuu äärellisestä määrästä sisäisiä tiloja (voidaan ajatella, että nämä tilat ovat esimerkiksi koneen työmuistin tiloja) sekä kiinteistä ohjeista, jotka ohjaavat koneen toimintaa. Nauhalle kirjoitetaan syöte jonkinlaisten symbolien avulla, jokainen yksittäinen symboli omalle ruudulleen. Periaatteessa syöte voidaan aina koodata käyttämällä binäärilukuja (kuten nykyisissä tietokoneissa) eli kirjoittamalla nauhalle lukujen 0 ja 1 jonoja, mutta periaatteessa muitakin symboleja voidaan käyttää. Syöte on aina äärellisen mittainen, mutta oletusta nauhan äärettömyydestä tarvitaan yksinkertaistavana abstraktiona, koska nauha toimii myös koneen työmuistina ja koneen toiminnan analysoimiseksi on helpompaa olettaa, ettei muisti lopu koskaan kesken. Säännöt ovat muodoltaan seuraavanlaisia: S(x,a) → (y,b,[O,V,P]). S on siirtymäfunktio, joka luetaan ”jos koneen sisäinen tila on x ja ruudussa on merkki a, niin siirry tilaan y ja kirjoita ruutuun merkki b; tämän jälkeen siirry nauhalla Vasemmalle (tai Oikealle tai Pysähdy)”. Laskenta siis etenee askeleittain, ja joka askeleella kone lukee merkin, kirjoittaa sen tilalle toisen (tai pitää lukemansa merkin ennallaan) ja siirtyy nauhalla eteen tai taaksepäin. Aina kun kone siirtyy nauhalla, se myös (mahdollisesti) vaihtaa sisäistä tilaansa. Kone siis lukee nauhalle kirjoitettua syötettä ja manipuloi nauhan sisältöä samalla siirtyen sisäisestä tilasta toiseen. Kun kone pysähtyy, on nauhalla sen antama vastaus.

Valitsemalla kontrollilaitteen ohjeet sopivalla tavalla tällainen Turing-kone voidaan laatia esimerkiksi laskemaan numeerisia funktioita. Koneita voidaan myös yhdistää siten, että yksinkertaisia perusfunktioita laskevista Turing-koneista voidaan rakentaa mielivaltaisen monimutkaisia koneita samaan tapaan kuin tietokoneohjelmia koodatessa yksinkertaisista ohjeista ja aliohjelmista voidaan koostaa monimutkaisia ohjelmistoja. Mielenkiintoisempaa kuitenkin on, että on mahdollista rakentaa niin sanottu universaali kone, joka lukujen lisäksi kykenee ottamaan syötteenä funktioita tai täsmällisemmin sanottuna ohjeita haluttujen funktioiden laskemiseksi. Universaali Turing-kone vastaa siis tietokoneen ideaa siinä mielessä, että sitä ei ole ohjelmoitu suorittamaan mitään tiettyä laskentatehtävää vaan periaatteessa mitä tahansa laskentatehtävää, joka voidaan ilmaista hyvin määriteltynä matemaattisena funktiona. Ongelmaksi osoittautui, että on olemassa funktioita, joiden laskenta ei koskaan pysähdy, eli kone ei löydä syötteeseen vastausta. Lisäksi ei ole tapaa yleisesti ratkaista milloin näin käy. Tämä tarkoittaa, että kaikki matemaattiset ongelmat eivät ole algoritmisesti ratkeavia.

Alonzo Church päätyi kehittämänsä lambda-kalkyylin avulla samaan tulokseen kuin Turing, ja äkkiä voitiin todistaa, että Churchin formalismi määrittelee täsmälleen saman joukon laskettavia funktioita kuin Turing-koneet. Church–Turing-teesinä tunnetaan seuraava laskettavuuden teorian kivijalka: Mikäli funktio on mekaanisesti laskettavissa, se on laskettavissa Turing-koneella.

Laskettavuuskysymyksen lisäksi Turing-koneet mahdollistavat myös algoritmisen monimutkaisuuden analyysin. Niiden avulla on mahdollista tutkia, miten paljon laskenta-aikaa tai muistia minkäkin funktion laskeminen vähimmillään edellyttää. Vaikka jokin ongelma olisi teoriassa ratkaistavissa ja jokin funktio teoriassa laskettavissa, eivät ne aina ole sitä käytännössä, mikäli ratkaisu edellyttää liian pitkää laskenta-aikaa. Esimerkiksi mistä tahansa kokonaisluvusta voidaan melko yksinkertaisen algoritmin avulla selvittää, onko se alkuluku, mutta erittäin suurien lukujen kohdalla vaadittu laskenta-aika voi kasvaa epärealistisen suureksi.

On syytä tarkentaa, ettei Church–Turing-teesi ole matemaattisesti todistettavissa oleva tulos, ja teesin luonne on jossain määrin epäselvä. Kyseessä on tavallaan laskettavuuden määritelmä. Toisaalta taas ajatellaan, että se on sisällöllinen väite, jonka voisi kumota esittämällä laskennan mallin, jonka avulla on mahdollista laskea joku funktioiden joukko, joka ei ole Turing-laskettava. Tällaisia hyperlaskettavuusmalleja on kehitelty, mutta niitä pidetään käytännössä epäoleellisina tietojenkäsittelytieteille, koska ne edellyttävät fyysisesti epärealistisia oletuksia kuten äärettömästi kiihtyvää laskentaa tai äärettömän tarkkoja parametrejä (Davis 2004). Esimerkiksi kvanttitietokoneet eivät kykene laskemaan laajempaa funktioiden joukkoa kuin Turing-koneet, mutta niiden avulla voi olla käytännössä mahdollista laskea eräitä funktioita, jotka Turing-koneilla vaatisivat kohtuutonta laskenta-aikaa (Le Bellac 2006, 102).

 

6. Koneajattelu ja Turingin testi

Vaikka Turingin ideoima universaali kone oli laskennan abstrakti matemaattinen malli, se selvästi sisältää toteutettavissa olevan koneen idean. Nykyiset tietokoneet eivät toimi täsmälleen kuten Turingin koneet eivätkä ne aivan tarkalleen ottaen myöskään ole Turing-täydellisiä (eli ne eivät kykene laskemaan kaikkia funktioita, jotka universaali Turing-kone kykenee laskemaan), koska missään koneessa ei ole äärettömän suurta muistia. Kuitenkin muistirajoituksia lukuun ottamatta ne ovat laskennallisessa mielessä vastaavia järjestelmiä. Tässä mielessä Turing-täydellisen koneen suunnitteli jo Charles Babbage 1800-luvulla, mutta tätä konetta ei koskaan rakennettu valmiiksi asti. Ensimmäinen Turing-täydellinen mekaaninen kone valmistui 1941 (Konrad Zusen Z3) ja nykyisen kaltainen täysin elektroninen ohjelmoitava tietokone MADM vuonna 1944.

Mikäli älykkyys voidaan samaistaa logiikan tai vastaavan kalkyylin kanssa, 1950-luvulle tultaessa siis oli koneita, jotka kykenivät ainakin periaatteessa älylliseen toimintaan. Mutta voivatko koneet kirjaimellisesti ajatella? Ehkä kuuluisimman kysymystä koskevan puheenvuoron esitti Turing artikkelissaan ”Computing Machinery and Intelligence” (1950), jossa Turingin testinä tunnetuksi tullut ajatuskoe esitettiin seuraavasti. Oletetaan, että henkilö kuulustelee kahta muuta henkilöä tekstiterminaalin avulla. Kuulustelija ei siis näe, kenen kanssa hän keskustelee, mutta hän voi esittää kummallekin anonyymille osallistujalle haluamiaan kysymyksiä normaalin pikaviestisovelluksen tapaan. Toinen kuulusteltavista on ihminen ja toinen tietokone, joka koettaa näytellä ihmistä. Turingin mukaan mikäli kuulustelija ei kykene erottamaan kumpi keskustelukumppaneista on kone ja kumpi oikea ihminen, meidän tulisi hyväksyä, että testiin osallistuva kone todella ajattelee.

Turingin testi voidaan ymmärtää ajattelun empiirisenä määritelmänä tai kriteerinä. Mikäli kone kykenee mielekkäällä tavalla vastailemaan avoimiin kysymyksiin ja osallistumaan keskusteluun, meillä ei ole perusteita väittää, ettei se ajattelisi. Toisaalta Turingin tarkoituksena ei ollut esittää täsmällistä filosofista analyysiä ajattelun käsitteestä. Oikeastaan päinvastoin hän katsoi, että kyseinen käsite on liian epämääräinen, jotta kysymykseen ajattelevan koneen mahdollisuudesta voisi vastata mielekkäällä tavalla, ja hänen ajatuskokeensa idea oli muotoilla uusi tapa ajatella tätä kysymystä, jotta siihen voitaisiin mielekkäästi joskus vastata.

Vaikka Turingin testi on laajalti tunnettu myös tekoälyn filosofian ulkopuolella, se ei kuitenkaan ole herättänyt erityisen laajaa keskustelua. Stuart Russell ja Peter Norvig (2010, 3) mainitsevat kuuluisan tekoälyoppikirjansa johdannossa, että varsinaisten tekoälytutkijoiden piirissä testille ei ole käytännössä annettu suurta painoarvoa. On kuitenkin syytä huomauttaa, että monet klassiset tekoälyhankkeet ovat pyrkineet uskottavan keskustelun käymiseen (esim. Terry Winogradin (1972) SHDRLU ja Roger Schankin sekä Robert Abelsonin (1977) SAM) ja inhimillisen järkeilyn simulointiin (esim. Hayes 1979). Lisäksi chatboteilla on nykyään käyttöä esimerkiksi asiakaspalvelutehtävissä, joten kyky käydä mielekästä, inhimillistä keskustelua on yksi tekoälytutkimuksen tavoitteista. Yhtäkään näistä järjestelmistä ei tosin ole suunniteltu huijaamaan, näyttelemään tai simuloimaan ihmistä, pois lukien Loebnerin palkintokisaan osallistuvat chatbotit, jotka nekin simuloivat hyvin rajattua osaa inhimillisestä kommunikaatiosta. Kyseessä on vuodesta 1990 asti järjestetty kisa, jonka pääpalkinnon voittaa Turing-testin läpäisevä ohjelma. Pääpalkintoa ei ole koskaan jaettu, mutta vuosittain parhaiten pärjäävä ohjelma palkitaan. Myös ensimmäisen tunnetun chatbotin, ELIZAn, laatija Joseph Weizenbaum nimenomaan alleviivasi, ettei hänen ohjelmansa ymmärtänyt yhtään mitään eikä se simuloinut inhimillistä ajattelua vaikka se onnistuikin vakuuttamaan jotkut käyttäjistään (Weizenbaum 1976). Viime aikoina paljon huomiota herättänyt syväoppimiseen perustuva GPT-3 järjestelmä kykenee useiden arvioiden mukaan tulkitsemaan kysymyksiä ja tuottamaan tekstiä hämmentävän uskottavasti.

Filosofian näkökulmasta Turingin idea taas oli ehkä turhan karkea vakavaksi ajattelun analyysiksi tai määritelmäksi. Tämä ei tosin vähennä sen arvoa keskustelunavauksena, jollaiseksi se nimenomaan oli tarkoitettu. Turing nähdään toisinaan myös komputationaalisen mielenteorian alullepanijana, mutta hän ei oikeastaan esittänyt täsmällistä teoriaa laskennan ja ajattelun yhteydestä, eikä hän sitä paitsi olisi edes ollut ensimmäinen tällaisen teorian esittäjä. Jo vuonna 1943 Warren McCulloch ja Walter Pitts olivat yhdistäneet ideoita neurotieteistä ja logiikasta matemaattiseen teoriaan laskennasta. Oikeastaan Turingin artikkeli ”Computing Machinery and Intelligence” edustaa ennemminkin komputationalismiin läheisesti liittyvää funktionalismia, jonka mukaan mielen toiminnassa on kyse mielekkään käyttäytymisen mahdollistavista kausaalisista prosesseista (kuten laskennasta), ei esimerkiksi inhimillisestä tietoisuudesta tai aivobiologiasta. Toisin sanoen funktionalismin mukaan ajattelussa on kyse siitä, mitä olio tekee, ei siitä, mitä se on.

 

7. Funktionalismi, komputationalismi ja mielen monitoteutuvuus

Tekoälyyn liittyvään mielen- ja tieteenfilosofiaan kuuluu elimellisesti keskustelu kognitivistisesta mielenteoriasta, joka koostuu kahdesta osasta: komputationalismista ja funktionalismista.

Komputationalistinen mielenteoria on empiirinen hypoteesi mentaalisesta kausaatiosta, jonka mukaan mielen toiminta, tai ainakin ajattelu ja muu korkea kognitio, on laskentaa käsitteen modernissa tietojenkäsittelytieteellisessä merkityksessä. Kyseessä ei ole pelkästään filosofinen teesi vaan myös kognitiotieteen metodologinen peruspilari, jonka mukaan mielen toimintaa koskevat mallit ja selitykset tulee muotoilla laskennallisina malleina ja teorioina. Komputationalismi edellyttää, että vahva tekoäly on mahdollista, mutta se ei edellytä vahvaa tekoälyteesiä siinä mielessä, että oikein ohjelmoitu tietokone olisi välttämättä mentaalinen ja tietoinen olio.

Funktionalismi taas on teoria mielentilojen luonteesta, jonka mukaan olion tietyistä sisäisistä tiloista tekee mielentiloja se, millä tavalla ne ovat säännönmukaisissa kausaalisissa suhteissa toisiinsa ja lisäksi havaintoon ja käyttäytymiseen. Esimerkiksi havainto, että vesi kiehuu, aiheuttaa uskomuksen, että vesi kiehuu. Uskomus, että vesi kiehuu saa meidät käyttäytymään kyseisen uskomuksen mukaisesti. Halu, että vesi kiehuisi, saa meidät yleensä käyttäytymään siten, että kyseinen halu toteutuisi, ja niin edelleen. Vaikka näistä säännönmukaisuuksista on aina käytännön elämässä poikkeuksia, niin ydinasia on, että havaintojen ja käyttäytymisen ja uskomusten, halujen, ja muiden mielentilojen välillä ylipäätään vallitsee selviä kausaalisia säännönmukaisuuksia. Jotta mentaalinen kausaatio voi ylipäätään olla mahdollista, mielentilojen täytyy arvatenkin toteutua jonkinlaisina fysikaalisina tiloina kuten aivotiloina. Funktionalistisesta näkökulmasta mielentilat eivät kuitenkaan palaudu niiden fysikaalisiin eikä myöskään tietoiseen kokemukseen liittyviin ominaisuuksiin vaan niihin kausaalisiin rooleihin, jotka niillä on organismin käyttäytymisessä ja psykologiassa.

Komputationalismia ja funktionalismia on usein pidetty pitkälti samana teoriana, mutta periaatteessa ne ovat toisistaan riippumattomia. Ainakin Stephen Stich (1983) on kannattanut niin sanottua klassista komputationalismia ja Paul Churchland (1989) taas neurokomputationalismia ilman funktionalismia. Molemmat filosofit pitävät uskomus/halu-psykologiaa epätieteellisenä ja katsovat, että kognitiotieteelle riittää pelkkä täsmällinen kuvaus mielen komputationaalisista mekanismeista. Eräät kyberneettisen perinteen edustajat, kuten W. Ross Ashby (1960), lienevät jonkinlaisia funktionalisteja ilman komputationalismia. Joka tapauksessa komputationalismi tarjoaa teorian mentaalisen kausaation luonteesta, jota funktionalismi edellyttää. Komputationalismi taas edellyttää riittävän abstraktia mielentilojen analyysia, joka pätee sekä keinotekoisiin että biologisiin informaationprosessointijärjestelmiin, ja funktionalismi vuorostaan täyttää tämän ehdon. Näin nämä teoriat täydentävät toisiaan ja usein kulkevat käsi kädessä. Niiden yhdistelmää kutsutaan usein myös komputationaaliseksi funktionalismiksi.

Komputationalismin ja funktionalismin liitolle on myös historiallinen syy. Hilary Putnam (1967) esitti funktionalismin ensimmäisen selkeän muotoilun, jota kutsutaan konetilafunktionalismiksi. Laskentaa suorittaessaan Turing-kone käy läpi abstraktisti määriteltyjä konetiloja. Vastaavasti kun ihminen havainnoi tai ajattelee, hän käy läpi erilaisia psykologisia tiloja. Putnamin idea oli rinnastaa konetilat mielentiloihin ja syöte mielensisältöihin ja havaintoihin. Näin saadaan abstrakti komputationaalinen malli mielestä, joka toimii siltana aivoprosessien ja psykologian välillä. Pian kuitenkin kriitikot (esim. Ned Block & Jerry Fodor 1972), osoittivat, että Turing-koneet tuskin toimivat kelvollisena mallina aivoista tai mielestä, mikä johti funktionalismin yleisempään kausaaliteoreettiseen muotoiluun.

Niin teknologisia kuin neurobiologisia tietojenkäsittelyjärjestelmiä voidaan tutkia eri abstraktion tasoilla, jotka ovat toisistaan jossain määrin riippumattomia. Tietokoneohjelmaa laativan ohjelmoijan ei tarvitse huomioida sitä suorittavan koneen elektronista toteutusta eikä yleensä edes prosessorin konekieltä. Sama ohjelma voidaan yleensä toteuttaa monella tavalla ja suorittaa fysikaalisesti hyvin erilaisilla koneilla.  Komputationaalisen funktionalismin perusolettamuksen mukaan mielen suhde aivoihin (tai materiaan yleisesti) on samanlainen kuin tietojenkäsittelyn suhde tietokoneisiin. Teorian kannattajien mukaan tämä ratkaisee mieli–ruumis-ongelman siinä mielessä, että mielen ja aivojen yhteistyö on filosofisesti yhtä ongelmaton tosiseikka kuin tietojenkäsittelyn ja tietokoneiden välinen yhteistyö. On tosin epäselvää, ratkaiseeko tämä mieli–ruumis-ongelman esimerkiksi tietoisten kokemusten ja tuntemusten osalta. Joka tapauksessa komputationaalisesta funktionalismista myös seuraa, että mieli on laskennan tapaan periaatteessa monitoteutuva eli riippumaton sen toteuttavan järjestelmän fysikaalisista yksityiskohdista. Mielenfilosofian kannalta tämä tarkoittaisi, että vahva tekoälyteesi on totta, koska mielet voivat tällöin toteutua periaatteessa missä tahansa fysikaalisessa järjestelmässä, joka kykenee toteuttamaan oikeanlaiset tietojenkäsittelyprosessit. On viime kädessä empiirinen kysymys, minkälaisiin tietojenkäsittelyprosesseihin mieli perustuu, mutta Church–Turing-teesin perusteella kaikki aivoissa tapahtuva tietojenkäsittely voidaan periaatteessa toteuttaa myös tietokoneilla sikäli kun aivojen tietojenkäsittely on algoritmisessa mielessä mekaanista. Tieteenfilosofian kannalta tämän taas on katsottu tarkoittavan, että psykologia on autonominen suhteessa aivotieteeseen samaan tapaan kuin ohjelmointi on autonomista suhteessa elektroniikkaan, eikä psykologia myöskään redusoidu fysiikkaan sen enempää kuin tietojenkäsittelytiedekään.

 

8. Klassinen komputationalismi, tekoäly ja kognitiotiede

Mielen toiminnan mahdollinen laskennallisuus ei sinänsä edellytä, että kognition täytyisi perustua loogiseen päättelyyn. Kuitenkin logiikalla on aina ollut keskeinen rooli päättelyn analyysissä ja mallintamisessa, ja 1900-luvulla se löysi tiensä niin kielen ja mielen filosofiaan, psykologiaan, kielitieteisiin kuin tekoälytutkimukseenkin. Klassiseksi komputationalismiksi kutsutaan laveassa mielessä logiikkaan perustuvaa tekoälyn ja kognition tutkimusta, joka oli valtavirtaa 1950-luvulta 1980-luvulleEnglanninkielisessä kirjallisuudessa käytetään myös John Haugelandin (1985) lanseeraamaa termiä GOFAI (Good Old-Fashioned Artificial Intelligence).

Monet tekoälyn pioneerit, kuten John McCarthy ja Patrick Hayes, painottivat logiikan merkitystä älykkäille järjestelmille. Myös ensimmäinen varsinainen tekoälyohjelma, Herbert Simonin, Allen Newellin ja Clifford Shawn Logic Theorist, nimensä mukaisesti suoritti loogisia deduktioita. Termi ”logiikka” tulee tässä yhteydessä kuitenkin ymmärtää löyhästi. Newell ja Simon tiivistivät klassisen komputationalismin ydinhypoteesin siten, että formaaleja symbolirakenteita säännönmukaisesti käsittelevä universaalijärjestelmä on välttämätön selitysmalli yleiselle ihmistasoiselle kognitiolle (Newell & Simon 1976, Newell 1980). Tämä määritelmä siis kattaa algoritmisen päättelyn predikaattilogiikan avulla, mutta ei edellytä formaalia logiikkaa vaan ylipäätään jotain symbolista päättelyjärjestelmää, joka on universaali siinä mielessä, että sen avulla on mahdollista muotoilla kaikki algoritmisesti ratkeavat päättelytehtävät. Esimerkiksi eri ohjelmointikielten avulla on mahdollista muotoilla erilaisia päättelyjärjestelmiä, jotka eivät välttämättä muistuta kovin läheisesti predikaattilogiikkaa. Klassiseen komputationalismiin liitetään usein hypoteesi ajattelun kielestä, joka on eräänlainen luonnollisista kielistä erillinen symbolijärjestelmänsä, jonka avulla aivot tallentavat ja käsittelevät tietoa. Klassisen komputationalismin mukaan ajattelun kieli ainakin jossain määrin muistuttaa logiikkaa tai ehkä jonkinlaista ohjelmointikieltä, mutta sen tarkempi olemus jätetään yleensä määrittelemättä ja empiirisen tutkimuksen huoleksi.

Järjen tietynlainen universaalisuus on ollut tärkeä ajatus järkeilyyn formaalisesti suhtautuvassa traditiossa Leibnizista klassiseen komputationalismiin. Simon ja Newell kollegoineen pyrkivät jo 1950-luvun lopulla laatimaan ohjelmia, jotka kykenevät yleiseen ongelmanratkaisuun (Newell ym. 1959, Ernst & Newell 1969). Ideana oli erottaa spesifisiä ongelmia ja niiden loogista rakennetta koskeva tieto ohjelman yleisestä ongelmanratkontarutiinista. Jokainen erityinen ongelma määritellään antamalla sen alkutila jonkinlaisena informaatiorakenteena sekä luettelemalla joukko sääntöjä, joiden avulla tila voidaan muuttaa toiseksi. Ongelman hyväksyttävät ratkaisut määritellään antamalla hyväksyttyjen lopputilojen joukko, ja ongelman ratkaisu on polun löytämistä alkutilasta hyväksyttävään lopputilaan, missä jokainen askel koostuu jonkin annetun säännön soveltamisesta. Käytännössä tällaisessa ongelmanratkonnassa on siis kyse aksiomaattisesta päättelystä yleistettynä siten, että se soveltuu periaatteessa minkä tahansa hyvin määritellyn ongelman ratkaisemiseen.

Kyseinen menetelmä tunnetaan nimillä keino–päämäärä-analyysi ja heuristinen haku. Tässä sana ”heuristinen” tarkoittaa, että vaikka ongelma olisi täsmällisesti ratkaistavissa, se ei ole aina käytännössä mahdollista, vaan joudutaan tyytymään suurpiirteiseen ratkaisuun. Kauppamatkustajan ongelma on tästä klassinen esimerkki. Kauppamatkustajan tulee vierailla joukossa kaupunkeja, joiden kaikkien välillä on suora yhteys. Ongelma on löytää lyhin kaikkien kaupunkien kautta kulkeva reitti. Mikäli kaupunkeja on viisi, on melko helppoa laskea kaikki mahdolliset reitit ja valita lyhin. Jos kaupunkeja on kuusikymmentä, mahdollisten reittivaihtoehtojen määrä on samaa luokkaa kuin näkyvän maailmankaikkeuden atomien määrä. Kaikkia reittejä ei tietenkään tarvitse huomioida, mutta voidaan osoittaa, että laskenta-aika kuitenkin kasvaa eksponentiaalisesti kaupunkien määrän kasvaessa. On yleinen ongelma, että ohjelmat eivät voi ratkoa ongelmia optimaalisella tavalla, koska mahdollisuuksien avaruus kasvaa äkkiä räjähdysmäisesti. Täsmällisten ratkaisujen sijaan joudutaankin usein tyytymään heuristisiin algoritmeihin, jotka antavat yleensä riittävän hyvän ratkaisun haluttuun ongelmaan. Tyypillisesti heuristiset algoritmit esimerkiksi esittävät likiarvoisia veikkauksia, jotka ovat käytännössä riittävän tarkkoja, tai jättävät varmistamatta, että löydetty ratkaisuvaihtoehto on täsmällisesti oikea tai paras mahdollinen. Näin ratkaisun tarkkuuden tai varmuuden suhteen tehdään vaihtokauppaa laskenta-ajan kanssa. Tällä rajoitetuksi rationaalisuudeksi kutsutulla seikalla on ollut huomattava vaikutus tekoälyn lisäksi myös inhimillisen rationaalisuuden tutkimukseen niin filosofiassa kuin psykologiassakin.

Vastaava ilmiö arkijärjen tai yleisten älykkyyden mallintamisessa tunnetaan nimellä kehysongelma (Dennett 1984). Maailma on täynnä muuttujia, jotka voivat periaatteessa olla toimintamme kannalta oleellisia, ja kaikkia niitä on mahdotonta huomioida. Ongelmana on rajata pois kaikki muut kuin käytännössä oleelliset tekijät, ja lisäksi varmistaa, että huomioimme myös kaikki toimintamme tahattomat mutta relevantit seuraukset. Relevanssin formaali määritteleminen on kuitenkin erittäin vaikeaa, luultavasti koska se ei ole abstrakti formaali asia, eikä kehysongelmaan ole vieläkään tyydyttävää ratkaistua.

Heurististen hakualgoritmien tutkimisen jälkeen klassisen tekoälyn valtavirta eteni pääpiirteissään kahteen suuntaan. Toinen tutkimushaara koetti ratkaista kehysongelmaa laatimalla arkisia ja muita rutiininomaisia tilanteita kuvaavia tietorakenteita, jotka kertovat, mitkä asiat ovat missäkin tilanteissa oleellisia ja miten ne liittyvät toisiinsa. Tunnetuin näistä lienee Marvin Minskyn (1975) kehysteoria, joka nimensä mukaisesti liittyy yllä mainittuun kehysongelmaan. Toinen suuntaus eteni rajoitettujen käsitteistöjen ja niin sanottujen mikromaailmojen tutkimukseen, missä ajatuksena oli tutkia tekoälyä monimutkaisen maailman sijaan rajatuissa keinotekoisissa ympäristöissä, joissa mahdollisten muuttujien määrä pysyy hallittavan pienenä. Ajatus oli, että jos tekoälyohjelmat saadaan toimimaan mielekkäästi tällaisissa rajallisissa ympäristöissä, voidaan järjestelmän monimutkaisuutta asteittain kasvattaa ja näin pyrkiä vahvempaan tekoälyyn, joka lopulta kykenee ihmisen kaltaiseen joustavaan käytökseen todellisessa maailmassa.

Klassisen komputationalismin tunnetuimpia filosofisia puolustajia lienevät Zenon Pylyshyn ja Jerry Fodor. Heidän mukaansa kompositionaalisten symbolirakenteiden käsittelyyn perustuvat mekanismit ovat ainoa tapa selittää kykymme ymmärtää rajaton määrä uusia ajatuksia ennalta ymmärrettyjen käsitteiden yhdistelminä sekä käyttää näitä käsitteiden yhdistelmiä systemaattisesti järkeilyssä (Fodor & Pylyshyn 1988). Argumentilla on taustansa Noam Chomskyn (1957,1965) alulle panemassa komputationaalisessa generatiivisessa kielitieteessä. Kriitikot ovat kiistäneet, että symbolinen kalkyyli olisi ainoa tapa tuottaa systemaattista järkeilyä ja että käsitteiden rajaton yhdisteltävyys olisi välttämättä ominaista mielelle tai kielelle. Tärkein vaihtoehto klassiselle komputationalismille on ollut konnektionismi, eli keinotekoisille hermoverkoille perustuva tekoäly, jota käytetään sekä kognition tutkimuksessa että kasvavissa määrin myös erilaisissa käytännön sovelluksissa.

 

9. Keinotekoiset hermoverkot ja koneoppiminen

Analyyttistä deduktiivista päättelyä painottavan tradition lisäksi tekoälyllä on toinenkin historia. Tätä konnektionismina tai neurokomputationalismina tunnettua suuntausta luonnehtii assosiatiivinen, induktiivinen päättely. Siinä missä klassisen komputationalismin juuret ovat rationalismissa ja matemaattisessa logiikassa, konnektionismi kumpuaa lähinnä assosiationistisesta psykologiasta, jonka juuret ovat 1600-luvun brittiläisessä empirismissä ja joka sai 1800-luvun aikana enenevissä määrin vaikutteita hiljalleen kehittyvästä neurotieteestä. Digitaalisten tietokoneiden sijasta konnektionismi on saanut mallinsa juurikin aivotutkimuksesta, ja se tarkoittaakin lähinnä keinotekoisten hermoverkkojen soveltamista tekoälyjärjestelmissä. Loogisen päättelyn sijaan tälle suuntaukselle on ominaista keskittyminen koneoppimiseen ja holistiseen hahmontunnistukseen.

1800-luvun lopulla nykyinen käsitys aivojen ja hermosolujen toiminnasta alkoi hahmottua. Ennen kaikkea ymmärrettiin, että aivotoiminta perustuu erillisiin, suunnattuja verkostoja muodostaviin hermosoluihin. Jokainen aivojen neuroni vastaanottaa sähkökemiallisia signaaleja toisilta soluilta, ja jos vastaanotettu signaali ylittää tietyn kynnysarvon, solu aktivoituu selkeästi erottuvana pulssina, joka matkaa aksoneja pitkin kohti toisia soluja. Keinotekoisissa hermoverkoissa tämä solulta toiselle matkaava signaali ilmaistaan numeerisena arvona, ja useilta soluilta signaaleja saava solu summaa yhteen tiettynä ajanhetkenä saamansa signaalit. Solujen väliset kytkennät voivat olla heikkoja tai vahvoja, ja signaalin arvo riippuu sen välittävien kytkentöjen vahvuudesta. Tätä signaalin voimakkuutta ilmaisevaa muuttujaa kutsutaan kytkentöjen painokertoimeksi. Hermoston toiminnan tutkiminen oli lähes yksinomaan fysiologista 1920-luvulle asti, kunnes ukrainalaissyntyinen fyysikko Nicolas Rashevsky ryhtyi mallintamaan biologisten järjestelmien toimintaa matemaattisesti. Tämän matemaattisena biofysiikkana tunnetun suuntauksen yhtenä tavoitteena oli luoda idealisoitu malli hermosoluverkostojen toiminnasta, mikä johti ensimmäisten neuroverkkojen syntyyn.

Rashevskyn vaikutuspiirissä Chicagon yliopistossa työskennelleet Warren McCulloch ja Walter Pitts julkaisivat vuonna 1943 ensimmäisen neuroverkkomallin, joka oli myös ensimmäinen moderni komputationaalinen teoria mielen toiminnasta. He osoittivat, miten hermosolujen suorittaman signaalin summaamisen ja siirron voi samaistaa lauseloogisten operaatioiden kanssa siten, että neuronit voisivat muodostaa verkostoja, jotka toimivat oleellisesti samaan tapaan kuin logiikkaportteihin perustuvat mikropiirit. McCullochin ja Pittsin malli on melko tunnettu, mutta se on neurologisesti liian idealisoiva ja laskennallisesti liian heikko: sen avulla ei voi suorittaa läheskään kaikkia niitä algoritmeja, joita esimerkiksi Turingin kehittämällä laskennan mallilla tai tietokoneilla voi, joten tekoäly suuntasi pian toisille urille digitaalisten tietokoneiden synnyn myötä.

Varsinainen konnektionismi syntyi Frank Rosenblattin (1958,1962) töiden tuloksena. Siinä missä McCulloch ja Pitts vielä nojasivat logiikkaan, Rosenblattin perseptroni (engl. perceptron) sovelsi täysin erilaista lähestymistapaa. Perseptroni on yksinkertainen keinotekoinen hermoverkko, joka koostuu joukosta syötesoluja, jotka ovat eräänlaisia keinotekoisia reseptoreita, ja yhdestä vastesolusta, joka reagoi valikoivalla tavalla syötesolujen saamaan informaatioon. Järjestelmän tarkoitus on tunnistaa tai luokitella hahmoja syötesoluille syötetystä datasta.

Rosenblattin ensimmäinen laite, Mark I Perceptron, suoritti visuaalista hahmontunnistusta. Järjestelmä koostui joukosta syötesoluina toimivia valokennoja, joista kukin oli kytketty johdolla vastesoluun, ja kytkentöjen voimakkuuksia voitiin säätää potentiometrien avulla. Nämä valokennot oli asetettu tasoon siten, että ne muodostivat kameran kennon kaltaisen syötekerroksen, jota Rosenblatt nimitti keinotekoiseksi verkkokalvoksi. Vastesolu aktivoitui, mikäli sen tältä syötekerrokselta saama kokonaissignaali ylitti tietyn kynnysarvon. Vastesolun aktivoituminen signaloi, että perseptroni oli havainnut tietyn hahmon, ja järjestelmän toiminnan kannalta oleellista oli löytää oikeat painokertoimet kullekin kytkennälle, jotta systeemi kykeni erottamaan haluttuja hahmoja. Tällainen laite voisi esimerkiksi tunnistaa, milloin hedelmäkorissa on omena ja milloin banaani, milloin sille näytetään ympyrä ja milloin kolmio, ja niin edelleen.

Perseptronin herättämä mielenkiinto ei liittynyt niinkään sen suorittamaan hahmontunnistukseen vaan hahmontunnistuksen taustalla olevaan koneoppimiseen, eli menetelmään, jonka avulla kytkentöjen painokertoimet saadaan säädettyä siten, että järjestelmä toimii tarkoituksenmukaisella tavalla. Yleensä oikeanlaisten painokertoimien päätteleminen ennalta on lähes mahdotonta, joten ne valitaan aluksi enemmän tai vähemmän satunnaisesti, jolloin verkko ei tee mitään järkevää. Rosenblatt laati algoritmin painokertoimien muuttamiseksi siten, että verkon vaste lopulta muodostuu halutunlaiseksi. Painokertoimia muutetaan aina kun verkko tekee virheen, ja algoritmi löytää oikeat painokertoimet äärellisessä ajassa mille tahansa luokittelulle, jonka verkko voi periaatteessa tehdä. Mikäli verkko on suunniteltu ja harjaannutettu oikein, se myös oppii tunnistamaan syötteitä, jotka eivät ole sen opetusmateriaalissa mutta muistuttavat opetusmateriaalissa olevia esimerkkejä.

Vuonna 1969 Marvin Minsky ja Seymort Papert kuitenkin todistivat, että on suuri joukko hyvin yksinkertaisiakin luokittelutehtäviä, joita perseptroni ei voi periaatteessakaan ratkaista. Minskyn ja Papertin kritiikki käytännössä lopetti neuroverkkojen tutkimuksen kahdeksi vuosikymmeneksi, kunnes niin sanottu PDP-konnektionismi (Parallel Distributed Processing, suom: hajautettu rinnakkaislaskenta) synnytti uuden aallon neuroverkkotutkimuksessa. Minsky ja Papert väittivät, ettei perseptronien ongelmia voi ratkaista monimutkaisemmilla verkoilla. Tämä ei pidä paikkaansa, mutta monimutkaisille verkoille ei ollut yleisesti tunnettua opetusalgoritmia ennen kuin David Rumelhartin ja James McClellandin luotsaama tutkimusryhmä julkaisi vuonna 1986 laajan matemaattisen ja kognitiotieteellisen tutkimuksen PDP-verkoista. Avaimena toimiva algoritmi tosin oli keksitty jo aiemmin; alun perin sen oli ilmeisesti muotoillut suomalainen Seppo Linnainmaa, tosin muussa kuin neurolaskentayhteydessä (Schmidhuber 2015).

Yllä on kuvattuna formaalin neuronin perusidea. Se kuvaa myös perseptronin rakenteen, joskin yksinkertaisessa perseptronissa ei ole summaavasta solusta lähteviä yhteyksiä. Oikealla puolella on yksinkertainen PDP-verkko. Vaikka verkkojen perusformalismi on hieman erilainen, PDP-järjestelmät ovat oleellisesti rinnakkaisista, kerroksittain ketjutetuista perseptroneista koostuvia verkkoja. Niiden sisäiset representaatiot eivät ole kompositionaalisia symbolirakenteita vaan hajautettuja reaalilukuvektoreita, joiden käsittely myös tapahtuu hajautetusti kytkentöjä pitkin. Verkon käsittelemä data syötetään ensimmäiselle niin sanotulle syötekerrokselle, joka muuntaa sen numeeriseksi signaaliksi. Tämä signaali siirtyy kytkentöjä pitkin niin sanotulle piilokerrokselle, ja alkuperäinen syöte muuntuu tämän prosessin seurauksena riippuen kytkentöjen painokertoimista sekä siitä, miten piilokerroksen solut aktivoituvat, joka puolestaan riippuu paljolti siitä, miten voimakasta signaalia kukin solu vastaanottaa edelliseltä kerrokselta. Samanlainen muunnos tapahtuu kun syöte jatkaa matkaansa tulostekerrokselle, josta verkon vaste syötteeseen lopulta luetaan. Piilokerroksia voi olla useampiakin, ja joissain verkoissa signaali voi kiertää verkon sisällä myös takaisin päin. Vastaavasti kuin perseptronien tapauksessa, näitäkään verkkoja ei varsinaisesti ohjelmoida vaan ne opetetaan suoriutumaan halutusta tehtävästä.

Opettamisen ja ohjelmoinnin eroa voi havainnollistaa seuraavasti. Kuvitellaan, että haluamme luoda järjestelmän, joka tunnistaa kasvonilmeitä. Ohjelmoija koettaa ennakkoon analysoida, mitkä visuaaliset piirteet ja niiden yhdistelmät erottavat esimerkiksi hämmästyneet, surulliset ja vihaiset kasvot toisistaan ja muotoilla täsmällisen komentojoukon, joka kertoo koneelle, miten nämä ilmeet erotellaan. Oppivat järjestelmät, kuten neuroverkot, taas kykenevät itse löytämään tarvittavat piirteet. Opettamisen aikana järjestelmälle näytetään erilaisia kasvokuvia ja aina kun se tekee virheen, verkon kytkentöjä muutetaan automaattisesti ennalta määritellyn yleiskäyttöisen oppimisalgoritmin mukaisesti, jolloin sen tekemät luokittelut vähitellen paranevat. Neuroverkot siis hiljalleen oppivat löytämään tehtävän kannalta tärkeitä piirteitä ja tilastollisia yhteyksiä niiden väliltä. Opetuksen seurauksena ne kykenevät löytämään ratkaisuja myös huonosti määriteltyihin ongelmiin, joita ohjelmoija ei osaa täysin muotoilla tai analysoida. Kääntöpuolena on se, että oppivien neuroverkkojen laatijat eivät aina itsekään tarkkaan ottaen tiedä miten ja miksi verkot tekevät tiettyjä luokitteluja. PDP-verkot eivät rajoitu visuaaliseen hahmontunnistukseen, vaan ne etsivät tilastollisia riippuvuuksia mistä tahansa datasta, joka voidaan koodata numeerisina syötevektoreina.

1990-luvulla käytiin polveilevaa keskustelua siitä, mitä uutta neuroverkot oikeastaan tuovat tekoälyn ja kognition filosofiaan. Tätä keskustelua on mahdotonta summata lyhyesti, mutta pääpiirteissään PDP-verkot olivat ensimmäisiä varteenotettavia kilpailijoita symboliselle tekoälylle. Niiden avulla voitiin mallintaa melko uskottavasti tiettyjä oppimiseen ja hahmontunnistukseen mutta myös päättelyyn liittyviä psykologisia prosesseja. PDP-verkkojen filosofinen merkitys piili niiden hajautetussa ja epäsymbolisessa tavassa esittää sekä käsitellä tietoa, joka haastoi perinteisiä käsityksiä kielen, mielen ja päättelyn luonteesta.

Vuosituhannen taitteeseen tultaessa oli kehitetty joukko muitakin koneoppimismenetelmiä, ja neuroverkot painuivat jossain määrin taka-alalle. Pienet verkot soveltuivat huonosti monimutkaisiin tehtäviin eikä suurten verkkojen käytännön potentiaalia tunnettu, mutta niitä pidettiin epäkäytännöllisinä niiden vaatiman suurten laskentaresurssien takia. Tehokkaiden vektori- ja matriisilaskentaan optimoitujen grafiikkaprosessorien kehityksen myötä kiinnostus suurten verkkojen tutkimiseen kuitenkin elpyi, ja 2010-luvun aikana koettiin taas uusi neurolaskennan aalto, jonka aikana ”tekoäly” alkoi käytännössä tarkoittaa koneoppimista tai tarkemmin syväoppimista. Syväoppiminen taas käytännössä tarkoittaa PDP-verkkojen uutta tulemista, mutta tällä kertaa suurempina järjestelminä, joissa voi olla miljoonia soluja tai kytkentöjä. Myös uusia tapoja soveltaa näitä verkkoja on kehitetty, mutta pohjimmiltaan niiden matemaattiset toimintaperiaatteet ovat samat kuin aiemmissa verkoissa. Jää nähtäväksi, tarjoaako syväoppiminen mielenfilosofian kannalta mitään oleellisesti uutta aiempaan konnektionismiin verrattuna, mutta näiden järjestelmien teknologis-taloudellinen käyttö herättää jo nyt monenlaisia eettisiä sekä yhteiskunta- ja teknologianfilosofisia kysymyksiä, esimerkiksi liittyen yksityisyyteen, informaation kontrolliin, autonomisiin agentteihin ja automatisoituun päätöksentekoon.

 

10. Tekoälyn filosofista kritiikkiä

Mielenfilosofian piirissä tekoälystä on keskusteltu kolmesta pääasiallisesta näkökulmasta.

  1. Jotkut kiistävät, että mielen täydellinen simulointi tekoälyn avulla olisi edes periaatteessa mahdollista.
  2. Toiset taas kiistävät, että mielen täydellinenkään tietokonesimulaatio olisi oikeasti (tietoinen) mieli.
  3. Lisäksi myös tekoälytutkimuksen merkittävyys kognitiotieteen näkökulmasta on kyseenalaistettu .

Tämän tyyppisten vastaväitteiden lisäksi myös konnektionistista lähestymistapaa itsessään on pidetty tekoälyn kritiikkinä. Jotkut teoreetikot ovat nimittäin ajatelleet, että keinotekoisten hermoverkkojen toiminta olennaisilta osin vastaa aivojen biologista toimintaa siinä missä klassisen komputationalismin mukaiset symboliset tekoälyjärjestelmät toimivat vastaavalla tavoin kuin digitaaliset tietokoneet. Tällaista kritiikkiä ei kuitenkaan tarkemmin käsitellä tässä luvussa. Nykyään kaikki alan tukijat lienevät yhtä mieltä, että neurolaskentaan perustuvat järjestelmät kuuluvat tekoälyn ydinalueeseen eivätkä keinotekoiset neuroverkot yleensä edes pyri vastaamaan aivojen toimintaa juuri mitenkään vaan yksinkertaisesti toimimaan tehokkaina oppimisjärjestelminä. On syytä huomata, etteivät nämä vastalauseet kohdistu tekoälyyn sinänsä vaan tiettyihin väitteisiin tekoälyn ja ihmismielen suhteesta sekä tekoälyn asemaan kognitiotieteessä. Lisäksi valtaosa tästä kritiikistä koskee ensisijaisesti klassista komputationalismia. Eräs syy konnektionismin nousuun 1980-luvulla oli, että klassinen tekoälytutkimus oli ajautunut umpikujaan ja tarve uusille menetelmille oli ilmeinen.

i. Tekoälyn periaatteellinen mahdottomuus, Lucas, Penrose ja Gödelin epätäydellisyyslause

John Lucas (1961) on esittänyt Gödelin epätäydellisyyslauseeseen vedoten, ettei ihmismieli voi olla formaali komputationaalinen järjestelmä. Gödelin epätäydellisyyslauseen mukaan jos formalismi F on ristiriidaton ja tarpeeksi ilmaisuvoimainen formalisoimaan aritmetiikan, niin tällöin on olemassa lause L, joka on tosi mutta ei osoitettavissa todeksi järjestelmässä F. Lucasin mukaan ihmiset kuitenkin kykenevät aina ”näkemään” tai todentamaan, että lause L on tosi. Niinpä mieli ei voi olla täysin formaali tai mekaaninen järjestelmä, koska missään formaalissa järjestelmässä ei ole mahdollista osoittaa todeksi kaikkia aritmetiikan totuuksia, mutta ihmisillä ainakin periaatteessa on tällainen kyky. Yksityiskohtaisemmassa muodossa pitkälti saman argumentin on esittänyt fyysikko Roger Penrose (1994).

Gödelin epätäydellisyyslause kuitenkin pätee vain, jos formaali järjestelmä täyttää aksiomaattisen järjestelmän perusehdot, eli jos se on luotettava ja ristiriidaton. On epäselvää, miksi samat ehdot pätisivät ihmismieleen, ja lisäksi on epäselvää, millä perusteella ihmiset kykenevät ymmärtämään ja todentamaan mielivaltaisen monimutkaisia matemaattisia lauseita kuten Lucasin argumentti edellyttäisi. Rajoitetusta rationaalisuudesta johtuen voisi kuvitella, että päinvastainen olisi totta, eli mielen kyky käsitellä mielivaltaisen monimutkaisia matemaattisia väitteitä luotettavasti olisi varsin rajallinen. Penrose taas näyttää ajattelevan, että tiedettä tehdessämme käytännössä joudumme olettamaan, että (matemaattinen) järkemme perustuu luotettavaan kykyyn (Penrose 1994, 138). Kuitenkin matemaatikot pitivät Eukleideen viidettä aksioomaa (kaksi samansuuntaista äärettömän pitkää suoraa eivät leikkaa toisiaan) itsestään selvänä lähes kaksi vuosituhatta, kunnes 1800-luvulla osoittautui, ettei se päde kaarevissa avaruuksissa ja suhteellisuusteorian toimivuus viittasi vahvasti siihen, että todellinen avaruus on itse asiassa kaareva. Virhe tuli siis korjattua, mutta tarina opettaa, ettei ihmismielen kyky ”nähdä” matemaattisia totuuksia ole välttämättä kovin luotettava ja, että matematiikan korjautuvuus perustuu totuuksien näkemisen sijaan todistuksiin sekä pitkäjänteiseen tieteelliseen toimintaan eikä niinkään yksilöiden kognitiivisiin ominaisuuksiin.

ii. Vahva tekoälyteesi, Searle ja kiinalainen huone

Ehkä tunnetuin tekoälyn kritiikki on John Searlen (1980, 1984) kiinalaisen huoneen ajatuskoe, jossa Searlen kuvitellaan istuvan suljetussa huoneessa mukanaan valtava sääntökirja, kynä ja tyhjiä paperilappuja. Huoneen seinässä on luukku, josta tipahtelee erikoisia merkintöjä sisältäviä lappuja. Aina kun lappu tipahtaa luukusta, Searle katsoo kirjastaan, mitä hänen tulee piirtää tyhjälle lapulle, jonka hän sitten työntää luukusta ulos. Searle ei tiedä, että kummalliset merkit ovatkin kiinankielistä kirjoitusta ja että hän käy lappujen avulla täysin järkevää keskustelua huoneen ulkopuolella olevien kiinaa ymmärtävien ihmisten kanssa.

Ajatuskokeen ideana on, että Searle kirjoineen muodostaa tietokoneohjelman. Hän saa symboleja syötteenä, joihin hän tulostaa vasteena toisia symboleja sääntökirjan sisältämän algoritmin mukaisesti. Laput voisivat toki sisältää myös esimerkiksi binaarikoodia. Ajatuskoe on laadittu vastaamaan Turingin testin tilannetta. Vaikka Searle siis toteuttaa mielekästä keskustelua käyvän tietokoneohjelman, hän ei alkuunkaan ymmärrä lukemiansa merkkejä, eikä edes sitä, että hän ylipäätään käy mitään keskustelua. Argumentin kannalta ei ole väliä minkälaisia ohjeita sääntökirja sisältää. Mekaaninen merkkien manipulointi ei joka tapauksessa synnytä ymmärrystä eikä merkitystä. Kuitenkin ihmismielten toiminta perustuu merkityksille, joten vaikka vahva tekoäly olisi mahdollinen, on vahva tekoälyteesi epätosi.

Tyypilliset vasta-argumentit, joita Searle myös ennakoi alkuperäisessä artikkelissaan, ovat niin sanotut systeemi- ja robottivastaukset. Systeemivastauksen mukaan meidän ei pitäisikään keskittyä siihen, mitä Searle ymmärtää tai ei ymmärrä, vaan laajempaan järjestelmään, jonka osa hän on. Systeemivastauksen mukaan nimittäin Searle toimii huoneessaan oleellisesti samoin kuin tietokoneen prosessori, mutta ymmärtäminen ei ole prosessorin tai systeemin muun osan ominaisuus vaan koko järjestelmän toiminnallinen ominaisuus. Searlen mukaan johtopäätös ei kuitenkaan muuttuisi, vaikka järjestelmään sisällytettäisiin koko huone, siis myös huoneessa oleva kirja, paperilaput, seinät ja niin edelleen. Robottivastauksen mukaan jos huone olisikin robotin päässä toimiva tietokone, joka myös yhdistäisi symboleita aistihavaintoihin ja tulostaisi motorisia vasteita, niin tällöin järjestelmän merkeillä olisikin merkitys, koska ne olisivat kausaalisessa yhteydessä ulkomaailman konkreettisiin olioihin ja tapahtumiin.

Searle huomioi näiden vastausten yhdistelmän ja vastaa, että periaatteessa hän voisi opetella koko sääntökirjan ulkoa eikä hän silti ymmärtäisi, mitä hänen käyttämänsä symbolikieli tarkoittaa. Toisaalta on vaikea kuvitella, että hän pystyisi soveltamaan sisäistämäänsä monimutkaista säännöstöä salamannopeasti ja käyttämään ilmaisuja oikealla tavalla oikeissa tilanteissa ilman minkäänlaista ymmärrystä. Tämä olisi toki empiirisesti mahdotonta, mutta filosofiselta kannalta voidaan myös epäillä, onko tällainen tilanne ylipäätään ajateltavissa. Searle on tosin aiheellisesti huomauttanut, että robottivastauksen esittäneet kriitikot näyttävät oikeastaan myöntävän hänen olleen oikeassa: ymmärtämisessä ja ihmismielessä ei ole kyse vain symbolien prosessoinnista, jos sen selittäminen edellyttää maailmassa toimivaa ruumiillista järjestelmää.

iii. Ruumis ja ympäristö, taidot ja kognitio

Konnektionistiset järjestelmät eivät sovellu kovin luontevasti strukturoituun ongelmanratkaisuun, jossa monimutkainen ongelma tulee pilkkoa joukoksi yksinkertaisempia osaongelmia. Alkuperäisessä PDP-raportissa Rumelhart ym. (1986b) esittivät, ettei informaation prosessointi välttämättä tapahdukaan kokonaan systeemin sisällä, vaan oleellinen osa järkeilyä on ulkoisten symbolien ja muiden resurssien manipulointi, kuten esimerkiksi allekkainlaskussa. Tätä ideaa ovat kehittäneet pidemmälle muiden muassa Andy Clark ja David Chalmers (1998). Heidän mukaansa mikäli ajattelu on informaationkäsittelyä ja kognitio määritellään funktionalistisesti, niin kognitio ei sijaitse pelkästään päässä vaan se hajautuu ympäristön teknologioihin ja representaatioihin.

Tämä laajennetun (extended) kognition idea on läheistä sukua ruumiillisen (embodied) kognition tutkimukselle, joka kulkee myös nimellä enaktivismi. Kun lisätään vielä, että kognitiota tulee tarkastella osana välitöntä ympäristöään (embedded), saadaan neljäs ”E”, jotka muodostavat niin sanotun 4E-paradigman. Siinä missä klassinen komputationalismi periytyi analyyttisestä filosofiasta, on tämä paradigma monilta osin lähempänä fenomenologista traditiota ja filosofista pragmatismia. 4E-filosofian lähimaastoon sijoittuu myös kognitiivinen ekologia (Hutchins 2010), jonka mukaan mentaalisia prosesseja ja rationaalisuutta ei voi ymmärtää huomioimatta, miten ne riippuvat organismin ja ympäristön vuorovaikutuksista.

Alkuperäisistä enaktivisteista erityisesti Evan Thompson (2007) on painottanut taitojen perustavanlaatuisuutta kognitiolle. Hänen mukaansa kognitio ei ole abstraktia loogista laskentoa vaan ruumiillisen tietotaidon harjoittamista konkreettisissa tilanteissa. Tämä muistuttaa tekoälyn varhaisimman kriitikon, Hubert Dreyfusin käsitystä, jonka mukaan klassinen tekoäly on keskittynyt hyvin määriteltyihin, tietoisesti kontrolloituihin prosesseihin vaikka kognitiossa on pääasiassa kyse epämääräisemmistä alitajuisista prosesseista, jotka eivät ole niinkään tiedollisia vaan taidollisia.

Enaktivismi ja muut yllä mainitut tutkimushankkeet eivät muodosta yhtenäistä liikettä. Tässä kuvattua kritiikkiä kuitenkin yhdistää ajatus, että kognitiota ei voi selittää eikä simuloida keskittymällä pelkästään pään sisällä tapahtuvaan abstraktiin informaation prosessointiin ja että klassisen tekoälyn ongelmat erityisesti arkijärjen selittämisessä johtuvat tästä. Tämä ei tarkoita, että tekoäly tai laskennalliset mallit olisivat tarpeettomia kognition selittämisessä. Monet mainituista teoreetikoista suhtautuvat esimerkiksi konnektionismiin ja robotiikkaan vähintään varovaisen myönteisesti. Kritiikin kärki on, että tekoälytutkimuksen kanssa liittoutunut kognitiivinen psykologia on käsittänyt tutkimuskohteensa ainakin osittain väärin ja tekoälyn merkitys psykologiassa on pienempi tai ainakin erilainen kuin miten klassiset komputationalistit sen käsittävät. Nämä näkemykset myös usein kiistävät järjen universaalisuuden ja painottavat sen riippuvuutta kokemuksesta.

 

11. Tekoälytutkimus Suomessa

Suomalaisesta tekoälytutkimuksesta ei ole julkaistu kattavaa koostetta tai historiikkia, mutta tietojenkäsittelytieteestä tällainen on saatavilla (Paakki 2014), ja luonnollisesti se sivuaa myös tekoälyä. Teoksen on julkaissut vuonna 1982 perustettu Tietojenkäsittelytieteen seura 30-vuotisen taipaleensa kunniaksi. Vuonna 1986 perustettiin Suomen tekoälyseura. Molemmilla yhdistyksellä on alusta alkaen ollut julkaisutoimintaa, ja ne ovat järjestäneet Suomen tekoälytutkimuksen päiviä, joista ensimmäinen pidettiin Espoon Otaniemessä elokuussa 1984. Kotimaisten yliopistojen ja tutkimuslaitosten lisäksi kyseiseen konferenssiin osallistui yritysten edustajia (pääasiassa Nokialta) ja elektronisen musiikin säveltäjiä (Erkki Kurenniemi ja Otto Romanowski). Muutama esitelmistä käsitteli yllättävänkin filosofisia aiheita sivuten muun muassa Turingin testiä, Quinen kielifilosofiaa ja jopa Husserlin fenomenologiaa (Hyvönen ym. 1984). Uusin kansallisesti merkittävä tekoälyn asiantuntijaorganisaatio on yksi Suomen Akatemian niin sanotuista lippulaivaprojekteista, Aalto-yliopiston, Helsingin yliopiston ja VTT:n aloitteesta vuonna 2017 perustettu Suomen tekoälykeskus, jonka tehtävä on edistää tekoälyn tieteellistä tutkimusta ja yhteiskunnallista vaikuttavuutta. Sen henkilöstöstä moni toimi aiemmin Suomen Akatemian laskennallisen päättelyn huippuyksikössä, joka vuosina 2012–2017 kehitti erityisesti koneoppimista, datamassojen louhintaa, ja muita ajankohtaisia tekoälymenetelmiä.

Suomen ensimmäinen tietojenkäsittelytieteen laitos ja professuuri perustettiin Tampereen yliopistoa edeltäneeseen Yhteiskunnalliseen korkeakouluun vuonna 1965. Viimeistään 1980-luvun aikana tietojenkäsittelyä opetettiin kaikissa Suomen korkeakouluissa. Suomessa on tehty merkittävää tietojenkäsittelytieteen tutkimusta, jonka yhteys tekoälytutkimukseen on usein läheinen jo siitäkin syystä, että erityisesti tietojenkäsittelytieteiden varhaisten vuosikymmenten aikana formaalisen logiikan, tekoälyn ja teoreettisen tietojenkäsittelytieteiden erot olivat varsin häilyvät samaan tapaan kuin tällä hetkellä tilastollisten ja muiden dataintensiivisten menetelmien ero tekoälytutkimukseen.

Turun yliopistossa on tutkittu 1960-luvulta lähtien akateemikko Arto Salomaan jalanjäljissä formaalisten kielten ja automaattien teoriaa. Salomaan työ näiden teemojen parissa on ollut kansainvälisesti ja kansallisesti erittäin vaikuttavaa. Laskennallisen logiikan parissa eräs tunnetuimpia kotimaisia tutkijoita on Aalto-yliopiston nykyinen rehtori Ilkka Niemelä, joka on perehtynyt muun muassa epämonotonisiin logiikoihin. Tällaisten logiikkojen voidaan katsoa mallintavan inhimillistä tai käytännöllistä järjenkäyttöä klassista logiikka paremmin. Ne jäsentävät päättelyä, joka perustuu epätäydelliselle ja muuttuvalle informaatiolle, kun taas klassinen logiikka soveltuu parhaiten päättelyyn, joka koskee täydellistä ja muuttumatonta informaatiota. Tällaisten klassisen logiikan muunnelmien tai laajennusten tutkimus on läheisessä yhteydessä myös analyyttisen filosofian tutkimuskohteisiin, erityisesti modaaliseen ja episteemiseen logiikkaan, joita on Suomen filosofian laitoksilla tutkittu ahkerasti ja joiden merkittävimpiä uranuurtajia kansainvälisesti on Jaakko Hintikka.

 Yksittäisistä tietojenkäsittelytieteen tutkijoista on syytä nostaa esiin myös Teuvo Kohonen, jonka työ erityisesti neuroverkkojen kehittäjänä on ollut sekä kansallisesti että kansainvälisesti merkittävää. Kohonen kiinnostui oppivista koneista jo 1960-luvulla ja tämä tutkimus kulminoitui 1980-luvun aikana itseorganisoituvien karttojen teoriassa, joka loi perustaa neuroverkkojen käytölle koneoppimisessa, hahmontunnistuksessa, ja älykkäiden järjestelmien laatimisessa. Kohonen on yksi viitatuimmista suomalaisista tutkijoista, ja hänen Teknilliseen korkeakouluun (nyk. Aalto-yliopisto) vuonna 1995 perustamastaan neuroverkkojen tutkimusryhmästä kulkee historiallinen jatkumo yllä mainittuun laskennallisen päättelyn huippuyksikköön. 1980-luvulta lähtien Oulun yliopistossa on tehty kansainvälisesti merkittävää konenäön tutkimusta. Konenäkö on yksi tekoälyn ydinalueista, joka liittyy kiinteästi hahmontunnistukseen ja robotiikkaan. (Paakki 2014.)

Ennen 2010-lukua on Suomalaisen filosofian historiasta vaikea löytää moniakaan johdonmukaisia ja pitkäjänteisiä yhteyksiä tekoälytutkimukseen. 1990-luvulle tultaessa sen hetkinen neuroverkkotutkimuksen uusi aalto vaikutti maailmanlaajuisesti mielenfilosofiaan. Keskeinen kysymys tuolloin oli, mitä uutta neuroverkot oikeastaan tarjoavat filosofisessa mielessä, ja tämän kysymyksen käsittely näkyi myös Suomessa vuosituhannen vaihteen molemmin puolin. Ainakin Tampereen yliopistolla filosofian professorit Veikko Rantala ja hänen jälkeensä virkaan vuonna 1998 astunut Leila Haaparanta kirjoittivat tekoälystä ja näistä teemoista muutamia artikkeleita. Haaparanta myös toimitti Sara Heinämaan kanssa vuonna 1995 Suomen filosofisen yhdistyksen julkaisusarjaan teoksen Mind and Cognition: Philosophical Perspectives on Cognitive Science and Artificial Intelligence. Jo vuonna 1989 ilmestyi Heinämaan ja Ilkka Tuomen suomenkielinen teos Ajatuksia synnyttävät koneet: tekoälyn unia ja painajaisia. Tekoälykysymyksiä, ja nimenomaan neuroverkkojen filosofisia mahdollisuuksia, käsitteli myös ainakin Tere Vadén, joka myöhemmin siirtyi tutkimaan toisenlaisia digitaaliseen teknologiaan liittyviä filosofisia kysymyksiä. Helsingissä ja Ruotsin Skövdessä Paavo Pylkkänen on tutkinut kvanttifysiikan ja tietoisuuden suhdetta. Kysymys liittyy informaation ja kausaalisuuden luonteeseen sekä Roger Penrosen kaltaisten teoreetikkojen ajatukseen, ettei ihmismieltä voi mallintaa laskennallisin menetelmin. Gödelin epätäydellisyyslauseeseen liittyen tästä teemasta tutkimusta on julkaissut ainakin Helsingissä ja Tampereella toiminut Panu Raatikainen.

Yllä oleva listaus ei ole tyhjentävä luettelo tekoälyyn liittyvästä filosofisesta kirjoittelusta 1990-luvun ja 2000-luvun alun Suomessa vaan satunnaisotos, josta kuitenkin piirtyy kuva, että tekoäly on kiinnostanut suomalaisia filosofeja, mutta pitkäjänteisiä tutkijanuria tämän teeman ympärille ei tuolloin juurikaan rakentunut. Ne, jotka kirjoittivat tekoälystä, tekivät tutkimusta pääasiassa muiden kysymysten parissa, ja useimmat mielenfilosofit eivät ensisijaisesti keskittyneet tekoälykysymyksiin. Ehkä niin Suomessa kuin kansainvälisestikin neuroverkkotutkimuksen keskeinen filosofinen anti lopulta oli havaita, että ainakin teoriassa täsmälleen samat tietojenkäsittelytehtävät voidaan toteuttaa hyvin erilaisilla tietojenkäsittelyjärjestelmillä. Käytännössä toki eri menetelmät soveltuvat paremmin eräisiin ja huonosti toisiin tehtäviin, mutta formaalisten menetelmien analyysin sijasta tieteellisesti suuntautuneet mielenfilosofit kautta maailman ovat kääntyneet yhä enemmän empiirisen psykologian puoleen.

Viimeisten vuosien aikana tekoäly on kuitenkin taas ollut kasvavan filosofisen kiinnostuksen kohteena myös Suomessa. Jälleen tämä aalto liittyy läpimurtoihin neuroverkkojen ja muiden koneoppimismenetelmien tutkimuksessa, tällä kertaa tosin soveltavassa tutkimuksessa. Monimutkaiset oppivat järjestelmät voivat toimia ennustamattomasti ja niiden päätöksenteon perusteet ovat monesti vaikeasti jäljitettävissä. Yhdistettynä autonomisesti toimiviin koneisiin tämä herättää kysymyksiä koneiden toiminnan hallinnasta, toimijuudesta ja näihin liittyvistä vastuista. Valtioneuvoston julkaisusta Tekoälyn kokonaiskuva ja kansallinen osaamiskartoitus (2018) selviää, että verrattain pienestä julkaisujen määrästä huolimatta suomalainen tekoälyosaaminen on kansainvälisessä vertailussa erityisen vahvaa alueella ”etiikka, moraali, regulaatio ja lainsäädäntö.” Tällaista tutkimusta tehdään parhaillaan ainakin Turun yliopistossa ja kauppakorkeakoulussa (esim. Future Ethics -projekti).

Suomen Akatemian Strategisen tutkimuksen neuvosto on rahoittanut viime vuosina ainakin kahta projektia, jotka käsittelevät tekoälyä, yhteiskuntaa, ja etiikkaa. ETAIROS on usean suomalaisen yliopiston ja VTT:n yhteishanke, joka selvittää tekoälyn sääntelyyn liittyviä kysymyksiä. Palvelurobotiikkaa ja hyvinvointia tutkivassa ROSE -hankkeessa on yliopistojen ja VTT:n lisäksi mukana ammattikorkeakoulu Laurea. Helsingin yliopiston humanistis-yhteiskuntatieteellisessä instituutissa RADAR tutkimusryhmä työskentelee tekoälyetiikan, robotiikan ja datafikaation parissa. Datafikaatio tarkoittaa jättämiemme digitaalisten jälkien keräämistä, kauppaamista ja hyödyntämistä yksilöiden ja ihmisjoukkojen käyttäytymisen ennustamiseksi. Helsingin kognitiotieteen oppiaineessa on aktiivinen tutkijaryhmä, joka on selvittänyt käytännöllisiä kysymyksiä liittyen autonomisiin koneisiin sekä ihmisen ja koneen vuorovaikutukseen mutta tehnyt myös mielenfilosofian ydinalueisiin kuuluvaa tutkimusta kognitiivisten prosessien luonteesta uusien koneoppimismenetelmien valossa.

Kaiken kaikkiaan siis Suomen filosofisessa tekoälytutkimuksessa on nähtävissä 2010-luvun aikana tapahtunut muutos. Ensinnäkin tutkimus- ja julkaisutoiminta tekoälyn ympärillä on lisääntynyt ja toiminta on siirtynyt yksittäisten tukijoiden jossain määrin satunnaisista hankkeista laajempiin, pitkäkestoisempiin ja usein monialaisiin tutkimusryhmiin. Toiseksi, ydinkysymykset tekoälyn ympärillä ovat siirtyneet mielenfilosofiasta yhteiskunta- ja ihmistieteellisiin tarkasteluihin, keinotekoisten järjestelmien toimijuuteen ja etiikkaan. Mullistus ei kuitenkaan ole täydellinen. Suomen filosofinen yhdistys järjesti vuoden 2019 alussa vuositapaamisensa teemalla ”tekoäly.” Esitelmien pohjalta koostetun teoksen (Raatikainen 2021) perusteella uusien tuulien lisäksi melko perinteisetkin kysymyksenasettelut tekoälyn parissa edelleen kiinnostavat kotimaisia filosofeja. Tekoälyyn liittyvät eri tutkimuskohteet paikoin limittyvät kirjoituksissa, mutta niissä piirtyy esiin kolme pääasiallista aihepiiriä. Useampi kirjoitus käsittelee tekoälyn aatehistoriaan sekä ihmiskuvaan ja mielen yleiseen luonteeseen liittyviä teemoja kuten myös tässä tekstissä sivuttuja Turingin testiä ja kiinalaisen huoneen ajatuskoetta.  Toinen suosittu teema on mielen sisältöjen ja prosessien luonnetta sekä koneoppimista, mielen ruumiillisuutta ja robotiikkaa. Tekoälyyn liittyvät eettiset ja yhteiskunnalliset kysymykset puhuttavat selvästi tällä hetkellä, ja niitä sivutaankin useissa teoksen artikkeleissa.

 

Suositeltavaa jatkolukemistoa

Bechtel, William & Abrahamsen, Adele (2002). Connectionism and the Mind: Parallel Processing, Dynamics, and Evolution in Networks (2nd ed.) Blackwell, Malden.
- Erinomainen johdanto konnektionismiin ja myös sen formaaliin puoleen. Käsittelee hahmontunnistuksen lisäksi muun muassa systemaattista symbolista laskentaa neuroverkoilla

Boden, Margaret A. (2006). Mind as Machine: A History of Cognitive Science. Oxford University Press, Oxford.
- Luultavasti paras kognitiotieteen ja tekoälyn historia. Laajuutensa takia tosin soveltuu huonosti johdantoteokseksi vasta-alkajalle.

Boden, Margaret A. (2018). Artificial Intelligence: A Very Short Introduction. Oxford University Press, Oxford.
- Ajankohtainen ja nimensä mukaisesti erittäin tiivis ja lähestyttävä johdanto aiheeseen. Erityisesti voi suositella tekoälyyn ja sen filosofiaan aiemmin perehtymättömille.

Brooks, Rodney A. (1999). Cambrian Intelligence: The Early History of the New AI. The MIT Press, Cambridge, MA.
- Kokoelma Rodney Brooksin robotiikkaa, tekoälyä ja mielenfilosofiaa koskevia vaikutusvaltaisia tekstejä.

Clark, Andy (1989). Microcognition: Philosophy, Cognitive Science, and Parallel Distributed Processing. The MIT Press, Cambridge, MA.
- Hyvä filosofinen yleisesitys PDP-konnektionismista, klassisesta komputationalismista ja näiden eroista.

Dreyfus, Hubert L. (1992). What Computers Still Can’t Do: A Critique of Artificial Reason. The MIT Press, Cambridge, MA.
- Klassisen tekoälyn klassinen kritiikki 1970-luvulta päivitettynä konnektionismin jälkeiselle ajalle. (Alun perin: What Computers Can’t Do: The Limits of Artificial Intelligence, 1972.)

Dreyfus, Hubert L. & Dreyfus, Stuart E. (1986). Mind over Machine: The Power of Human Intuition in the Era of the Computer. Free Press, New York.
- Vaikutusvaltainen analyysi taitojen merkitystä kognitiolle ja erityisesti asiantuntijuudelle. Kritisoi logiikkapohjaiseen tekoälyyn liittyviä niin sanottuja asiantuntijajärjestelmiä.

Haugeland, John (1985). Artificial Intelligence: The Very Idea. The MIT Press, Cambridge, MA.
- Hyvä filosofinen perusesitys klassisesta tekoälystä. GOFAI-termin alkulähde.

Haugeland, John (toim.) (1981). Mind Design: Philosophy, Psychology, Artificial Intelligence. The MIT Press, Cambridge, MA.
- Kokoelma klassista komputationalismia käsitteleviä esseitä sekä keskeisiä symboliseen tekoälyyn liittyviä alkuperäislähteitä.

Millican, Peter J. R. & Clark, Andy (toim.) (1996). The Legacy of Alan Turing, volume I: Machines and Thought. Oxford University Press, Oxford.
- Sisältää muun muassa Turingin testiä käsitteleviä kirjoituksia.

Pfeifer, Rolf & Bongard, Josh (2006): How the Body Shapes the Way We Think: A New View of Intelligence. The MIT Press.
- Uusista tekoälyn suunnista robotiikan ja osin 4E filosofian perspektiivistä.

Preston, John & Bishop, Mark (toim.) (2002). Views into the Chinese Room: New Essays on Searle and Artificial Intelligence. Oxford University Press, Oxford.
- Kokoelma Searlen kiinalaisen huoneen ajatuskoetta käsitteleviä esseitä.

Rowlands, Mark J. (2010). The New Science of the Mind: From Extended Mind to Embodied Phenomenology. The MIT Press, Cambridge MA.
- Tunnettu ja paljon viitattu perusesitys 4E-paradigmasta ja sen yhteyksistä fenomenologiaan.

Russell, Stuart & Norvig, Peter (2010). Artificial Intelligence: A Modern Approach (3rd. ed.) Pearson, Upper Saddle River.
- Kattava mutta tekninen tietojenkäsittelytieteen oppikirja tekoälytekniikoista. Edellyttää jonkinasteista perehtyneisyyttä matematiikkaan.

 

Kirjallisuus

Ailisto, Heikki; Anssi Neuvonen, Henrik Nyman, Marco Halén & Timo Seppälä (2018). "Tekoälyn kokonaiskuva ja kansallinen osaamiskartoitus – loppuraportti". Selvitys- ja tutkimustoiminnan julkaisusarja 4/2019. Helsinki: Valtioneuvoston kansia.

Aristoteles (n. 350 eaa). "Ensimmäinen analytiikka". Teoksessa Teokset I (1994). Kategoriat, Tulkinnasta, Ensimmäinen analytiikka, Toinen analytiikka. Suomentaneet Lauri Carlson, Simo Knuutila ja Juha Sihvola. Gaudeamus, Helsinki.

Ashby, W. Ross (1960). Design for a Brain: The Origin of Adaptive Behavior (2nd ed.). John Wiley & Sons, Lontoo.

Bechtel, William & Mundale, Jennifer (1999). ”Multiple Realizability Revisited: Linking Cognitive and Neural States” Philosophy of Science, Vol. 66, No. 2, 175–207.

Block, Ned & Fodor, Jerry A. (1972). ”What Psychological States are Not”. The Philosophical Review, Vol. 81, No. 2, 159–181.

Chomsky, Noam (1957). Syntactic Structures. Mouton, Haag.

Chomsky, Noam (1965). Aspects of the Theory of Syntax. The MIT Press, Cambridge, MA.

Church, Alonzo (1936). ”A Note on the Entscheidungsproblem”. The Journal of Symbolic Logic, Vol. 1, No. 1, 40–41.

Churchland, Paul M. (1989). A Neurocomputatioal Perspective: The Nature of Mind and the Structure of Science. The MIT Press, Cambridge, MA.

Clark, Andy & Chalmers, David (1998). ”The Extended Mind”. Analysis, Vol. 58, No. 1, 7–19.

Davis, Ernest & Marcus, Gary (2015). ”Commonsense Reasoning and Commonsense Knowledge in Artificial Intelligence”. Communicatios of the ACM, Vol. 58, No. 9, 92–103.

Davis, Martin (2004). ”The Myth of Hypercomputation”. Teoksessa Teuscher, Christof (toim.) (2004). Alan Turing: Life and Legacy of a Great Thinker. Springer, Berliini.

Dennett, Daniel (1984). ”Cognitive Wheels: the Frame Problem of AI”. Teoksessa Hookway, Christopher (toim.) (1984). Minds, Machines, and Evolution: Philosophical Studies. Cambridge University Press, Cambridge.

Dreyfus, Hubert L. (1965). Alchemy and Artificial Intelligence. The RAND Corporation, Santa Monica.

Ernst, George W & Newell, Allen (1969). GPS: A Case Study in Generality and Problem Solving. Academic Press, New York.

Fodor, Jerry A. & Pylyshyn, Zenon W. (1988). ”Connectionism and Cognitive Architecture: A critical analysis”. Cognition, Vol. 28, No. 1–2, 3–71.

Ganeri, Jonardon (2004). ”Indian Logic”. Teoksessa Gabbay, Dov M. & Woods, John (toim.) (2004). Handbook of the History of Logic, Volume 1: Greek, Indian, and Arabic Logic. Elsevier, Amsterdam.

Gödel, Kurt (1930). ”Die Vollständigkeit der Axiome des logischen Funktionenkalküls”. Monatshefte für Mathematik und Physik, Vol. 37, 349–360.

Gödel, Kurt (1931). ”Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I”. Monatshefte für Mathematik und Physik, Vol. 38, 173–198.

Haaparanta, Leila (toim.) (2009). The Development of Modern Logic. Oxford University Press, Oxford.

Haaparanta, Leila & Heinämaa, Sara (toim.) (1995). Mind and Cognition: Philosophical Perspectives on Cognitive Science and Artificial Intelligence. Helsinki: Suomen Filosofinen Yhdistys.

Hayes, Patrick J. (1979). ”The Naive Physics Manifesto”. Teoksessa Michie, Donald (toim.) (1979). Expert Systems in the Micro-electronic Age. Edinburgh University Press, Edinburgh.

Heinämaa, Sara & Tuomi, Ilkka (1989). Ajatuksia synnyttävät koneet: tekoälyn unia ja painajaisia. Porvoo: WSOY.

Hobbes, Thomas (1999). Leviathan, eli kirkollisen yhteiskunnan aines, muoto ja valta. Vastapaino, Tampere. Suomentanut Tuomo Aho. Alkuperäisteos: Leviathan or The Matter, Forme and Power of a Common-Wealth Ecclesiasticall and Civil (1651).

Hutchins, Edwin (2010). ”Cognitive Ecology”. Topics in Cognitive Science, Vol. 2, No. 4, 705–715.

Hyvönen, Eero, Jouko Seppänen & Markku Syrjänen (toim.) (1984). SteP-84 Symposium Papers. Helsinki: Tietojenkäsittelytieteen seura.

La Mettrie, Julien Offray de (2003). Ihmiskone. Eurooppalaisen filosofian seura, Tampere. Alkuperäisteos: L’homme machine (1747).

Le Bellac, Michel (2006). A Short Introduction to Quantum Information and Quantum Computation. Cambridge University Press, Cambridge.

Leibniz, Gottlob 1688. ”An Ars Characteristica for the Rational Sciences”. Englanniksi latinasta kääntänyt Marcelo Dascal, Quinttín Racionero ja Adelio Cardoso. Teoksessa Dascal, Marcelo (toim.) (2008). Gottfried Wilhelm Leibniz: The Art of Controversies. Springer, Dordrecht.

Lucas, John R. (1961). ”Minds, Machines and Gödel”. Philosophy, Vol. 36, No. 137, 112–127.

McCarthy, John, Marvin L. Minsky, Nathaniel Rochester & Claude E. Shannon (1955). "A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence". Verkossa: jmc.stanford.edu/articles/dartmouth/dartmouth.pdf (17.4.2020)

McCulloch, Warren S. & Pitts, Walter (1943). ”A Logical Calculus of Ideas Immanent in Nervous Activity”. Bulletin of Mathematical Biophysics, Vol. 5, 115–133.

Minsky, Marvin (1975). ”A Framework for Representing Knowledge”. Teoksessa Winston, Patrick H. (toim.) (1975). The Psychology of Computer Vision. McGraw-Hill, New York.

Minsky, Marvin & Papert, Seymour A. (1969). Perceptrons: An Introduction to Compuational Geometry. The MIT Press, Cambridge, MA.

Newell, Allen & Simon, Herbert A. (1963). ”GPS, A Program that Simulates Human Thought”. Teoksessa Feigenbaum, Edward A. & Feldman, Julian (toim.) (1963). Computers and Thought. McGraw-Hill, New York.

Newell, Allen & Simon, Herbert A. (1972). Human Problem Solving. Prentice-Hall, Englewood Cliffs.

Newell, Allen & Simon, Herbert A. (1976). ”Computer Science as Empirical Inquiry: Symbols and Search”. Communications of the ACM, Vol. 19, No. 3, 113–126.

Newell, Allen (1980). ”Physical symbol systems”. Cognition, Vol. 4, No. 2, 135–183.

Newell, Allen, John C. Shaw & Herbert A. Simon (1959). Report on a General Problem-solving Program. The RAND Corporation, Santa Monica.

Paakki, Jukka (2014). Opista tieteeksi – Suomen tietojenkäsittelytieteiden historia. Helsinki: Tietojenkäsittelytieteen seura.

Penrose, Roger (1994). The Shadows of the Mind: A Search for the Missing Science of Consciousness. Oxford University Press, Oxford.

Putnam, Hilary (1967). ”Mental Life of Some Machines”. Teoksessa Castañeda, Hector-Neri (toim.) (1967). Intentionality, Minds, and Perception. Wayne State University Press, Detroit.

Raatikainen, Panu (toim.) (2021). Tekoäly, ihminen ja yhteiskunta – Filosofisia näkökulmia. Helsinki: Gaudeamus.

Rosenblatt, Frank (1958). ”The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain”. Psychological Review, Vol. 65, No. 6, 386–408.

Rosenblatt, Frank (1962). Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms. Spartan Books, Washington, D.C.

Rumelhart, David E., James L. McClelland & The PDP Research Group (1986a). Parallel Distriputed Processing: Explorations in the Microstructure of Cognition (vols. 1 & 2). The MIT Press, Cambridge, MA.

Rumelhart, David E., Paul Smolensky, James L. McClelland & Geoffrey E. Hinton (1986b). ”Schemata and Sequential Thought Processes in PDP Models”. Teoksessa Rumelhart ym. (1986a).

Schank, Roger C. & Abelson, Robert P. (1977). Scripts, Plans, Goals, and Understanding: An Inquiry into Human Knowledge Structures. Lawrence Erlbaum Associates, Hillsdale.

Schmidhuber, Jürgen (2015). Deep Learning in Neural Networks: An Overview. Neural Networks, Vol. 61, 85–117.

Searle, John R. (1980). ”Minds, brains, and programs”. The Behavioral and Brain Sciences, Vol. 3, 417–457.

Searle, John R. (1984). Minds, Brains, and Science: 1984 Reith Lectures. Harvard University Press, Cambridge, MA.

Simon, Herbert A. (1957). Models of Man: Social and Rational – Mathematical Essays on Rational Human Behavior in a Social Setting. John Wiley & Sons, Lontoo.

Stich, Stephen P. (1983). From Folk Psychology to Cognitive Science: The Case Against the Belief. The MIT Press, Cambridge, MA.

Thompson, Evan (2007). Mind in Life: Biology, Phenomenology, and the Sciences of Mind. Harvard University Press, Cambridge, MA.

Turing, Alan (1936). ”On Computable Numbers, with an Application to the Entscheidungsproblem”. Proceedings of London Mathematical Society 2, Vol, 42, No. 1, 230–265.

Turing, Alan (1950). ”Computing Machinery and Intelligence”. Mind, Vol. 59, No. 236, 433–460.

Weizenbaum, Joseph (1966). ”ELIZA–A Computer Program For the Study of Natural Language Communication Between Man and Machine”. Communications of the ACM, Vol. 9, No. 1, 36-45.

Weizenbaum, Joseph (1976). Computer Power and Human Reason: From Judgment to Calculation. W. H. Freeman, New York.

Winograd, Terry (1972). ”Understanding Natural Language”. Cognitive Psychology, Vol. 3, No. 1, 1–191.