in English | suomeksi neokybernetiikastaluentojakeskustelu
Adobe Flash liitännäinen tarvitaan videon näyttämiseksi tässä. Toimii Linuxissa, Macissa ja Windowsissa. Voit myös ladata videotiedoston ja katsella sitä esimerkiksi VLC-ohjelmalla.
Adobe Flash liitännäinen tarvitaan heijasteiden näyttämiseksi tässä. Toimii Linuxissa, Macissa ja Windowsissa. Voit myös ladata pdf-tiedoston ja avata sen suosimallasi pdf-ohjelmalla.
Lyhyet ohjeet:

Prof. Heikki Hyötyniemi
AS-74.4192 Kybernetiikan alkeet
10. luento: Erikoishaaste: kognitiiviset järjestelmät
Teknillinen korkeakoulu, 3.4.2009

Luentovideoinnista litteroinut Petri Lievonen.
(v.2009.04.09)

[0:00/1]

No niin, aloitetaan sitten.

Tällä kertaa meillä on aiheena tällainen kaikkein vaikein kompleksinen järjestelmä.

Ainakin jotkut sanovat, että kognitiojärjestelmä, tai ihmisen mieli, ihmisen aivot, on monimutkaisin kaikista järjestelmistä universumissa.

Tämä on se kaikkein perimmäisin haaste, mihin kompleksisten järjestelmien tutkimus pyrkii vastaamaan.

Ja toisaalta kognitiojärjestelmä on se järjestelmä, jonka kautta kaikki mitä ymmärrämme, eli kaikki meidän kompleksisten järjestelmien teoriat ja muut, joutuvat kulkemaan.

Siinä mielessä on ihan järkevää, jos pystyy vähän ymmärtämään myös tämän mallituskoneiston toimintaa.

[1:00/2]

Katsotaan nyt tätä neokyberneettistä perspektiiviä tähän.

Ja taas täytyy todeta, että tämä ei ole millään tavalla ainoa oikea tulkinta näistä asioista.

Tässä taas katsotaan kaikkia asioita neokyberneettisten lasien läpi.

Tämän verran kuitenkin käydään tätä historiaa läpi.

Voitaisiin todeta, että behaviorismi oli se ensimmäinen lähestymistapa kognitiotieteeseen, eli tarkasteltiin input-output käyttäytymistä.

Eli tehtiin jotain kokeiluja ja katsottiin kuinka käyttäytyminen muuttuu, esimerkiksi.

Tyypillisiä ovat nämä Pavlovin koirakokeet ja muut.

Sitten kognitivismin kautta, ja konstruktivismin kautta, tultiin nykyaikaan – kognitivismissa keskityttiin enemmänkin näihin mielen sisäisiin rakenteisiin, ja kaikenlaisiin tämmöisiin rajoitteisiin mitä mielellä on.

Tällä hetkellä voisi sanoa, että tämmöinen käyttäytymispohjainen lähestymistapa on ehkä kaikkein eniten huomiota saava.

Esimerkiksi robotiikan puolella puhutaan hyvin paljon käyttäytymispohjaisesta robotiikasta.

Ja, hauskaa tässä ehkä on se, että voitaisiin todeta että tämmöinen käyttäytymispohjainen lähestymistapa, niin eikös se ole aika lähellä tämmöistä behaviorismia tavallaan – eli jollakin tavalla tämä ympyrä on sulkeutunut.

Onko siinä saavutettu jotakin tässä välillä – no, se miksi tämä behaviorismi tai tämmöinen käyttäytymispohjaisuus on tällä hetkellä hyvin suosittua, se tietenkin johtuu siitä että menetelmät ja työkalut ovat kehittyneet.

Elikä tietokoneet on tarjolla, ja sitten toisaalta neuroverkkoalgoritmit ja muut, jotka ovat datasta oppivia menetelmiä.

Menetelmien kehittyminen on tuonut painetta myös tänne kognitiotieteen puolelle, että asioita on ehkä syytä tarkastella tässä uudessa näkökulmassa.

Eli jollain tavalla, koska kehitystä on tapahtunut, niin tämä ympyrä ei ehkä kuitenkaan ole ihan paluuta entiseen, vaan tässä on tämmöistä spiraalia kyseessä.

Ja, tämä neokyberneettinen tarkastelu, voisi sanoa että se on nimenomaan esimerkki tämmöisestä spiraalimaisesta lähestymistavasta.

Sen sijaan, että tarkasteltaisiin pelkästään ympäristön vaikutusta, eli käyttäytymiseen vaikuttamista ympäristön avulla, niin keskeisessä roolissa on myös sisäinen rakenne – eli jonkunlainen kompromissi näistä kahdesta.

No toisaalta tässä on se kiinnostava piirre, että oikeastaan kaikkein vanhimmat asiat mitä kognitiotieteestä modernissa mielessä on sanottu, niin ne ovat näitä Immanuel Kantin ajatuksia, ja hän aika pitkälle ajatteli jo tällä samalla tavalla, 200 vuotta sitten.

Hänhän sanoi, että – tai hän muun muassa sanoi, että ympäristö tai luonto ei pysty asettamaan mieleen näitä rakenteita mitä ympäristössä on, vaan ennemminkin mieli asettaa rajoitukset sille mitä ympäristöstä havaitaan.

Eli mieli pakottaa oman rakenteensa tälle havainnolle.

Tämä on hyvin syvällinen havainto, ja edelleen paikkansapitävä nykyisin.

[5:23/3]

Nyt mennään tähän neokyberneettiseen näkökulmaan tarkemmin.

Tässä on taas tämmöinen silmukka kyseessä – aloitimme nämä tarkastelut neuronien tarkastelulla, ja nyt palataan takaisin näihin neuroneihin.

Silloin neuroneita tarkastellessa keskityttiin aivan tähän, että minkälaista datan analyysiä, minkälaista kompressiota, nämä neuronijoukot pystyvät sille datalle tekemään, mutta nyt on haasteena se, että kuinka voitaisiin näiden neuronien pohjalta selittää esimerkiksi symbolien, käsitteiden ja kategorioiden emergoituminen, jotka ovat selvästi ylemmällä tasolla.

Ne ovat emergenttejä, tai emergentin tason käsitteitä, nämä käsitteet.

Niitä ei suoraan havainnoista voida – tai suoraan havaintojen avulla ei voida selittää.

Toisaalta sitten tämmöisten symbolijärjestelmien päälle rakentuu tämä älykkyys – se on taas oma emergentti tasonsa.

Pelkkien symbolien avulla ei älykkyyttä voida selittää.

Ja vaikka olisi älykäskin järjestelmä, niin tietoisuus on vielä oma emergentti tasonsa.

Koska pelkkä älykkyyden toteuttaminen ei millään tavalla takaa sitä, että järjestelmä olisi tietoinen.

No, näistä kaikista jonkun verran tässä nyt heitetään tämmöisiä arvauksia, tässä neokyberneettisessä kehyksessä.

Ihan jo alkuun voisin todeta, että koska kaikki meillä loppujen lopuksi pohjautuu dataan, tämmöiseen iteratiiviseen tarkasteluun, niin monia perinteisen kognitiotieteen tai mielenfilosofian ongelmia voidaan välttää.

Koska perinteisesti kun on ruvettu vaikka jotain käsitteitä määrittelemään toisten käsitteiden avulla, ajaudutaan niin sanottuun hermeneuttiseen kehään, jossa käsitteiden määrittely käsitteiden avulla ei loppujen lopuksi tuota muuta kuin noidankehän.

Nyt loppujen lopuksi asiat jossakin vaiheessa palautuvat takaisin alemman tason inputteihin, eli loppujen lopuksi joihinkin havaintoaineistoihin, ehkä.

Ja toinen asia liittyy juuri tähän tietoisuuden tarkasteluun.

Yleensähän joudutaan ajattelemaan, että jotta tietoisuus voitaisiin selittää, täytyy olla joku koneisto, joka tulkitsee alemman tason havaintoprosessia.

No, sitten täytyy olla joku ylemmän tason homonculus taas, joka selittää tätä alemman tason havaitsijan toimintaa, ja myös tästä saamme tämmöisen loppujen lopuksi äärettömän jatkumon, joka ei loppujen lopuksi selitä mitään.

Mutta taas tässä kyberneettisessä kehyksessä ainakin voidaan intuitiivisesti ajatella, että meillä on mahdollisuuksia vastata tämmöiseen äärettömän laskeutumisen ongelmaan.

[9:04/4]

No, näitä kognitiotieteellisiä ilmiöitä tutkitaan toisaalta kognitiotieteen puolella – siellä tutkitaan asioita analyyttisesti, lähdetään olemassa olevasta kognitiivisesta tai älykkäästä järjestelmästä, ja yritetään ymmärtää sen toimintaa, eli tarkastellaan ikään kuin psykologian kautta ihmismielen toimintaa.

Toinen perinteinen lähestymistapa on tämä tekoälyn lähestymistapa – eli ruvetaan konstruoimaan järjestelmiä, joihin yritetään implementoida älykkään käyttäytymisen piirteitä, ja katsotaan sitten että olisiko saavutettu jotakin kiinnostavaa.

Nämä ovat kaksi tämmöistä toisiaan tukevaa lähestymistapaa, jotka toistaiseksi eivät ole kovin hyvin kyenneet toisiansa kohtaamaan.

Perusongelma on juuri se, että silloin kun tarkastellaan käsitteellisellä tasolla, käsitteiden ja symbolien tasolla asioita, niin ei ole kovin helppoa harpata tätä kuilua tänne tämmöiseen datapohjaiseen tarkasteluun, ja toisaalta jos lähdetään datapohjaisesta tarkastelusta, niin kuin tekoälyn eräissä suunnissa – esimerkiksi neuraaliverkkotutkimuksissa kun lähdetään rakentamaaan datasta eteenpäin – niin on hyvin vaikea harpata käsitteiden tasolle.

No, nyt voidaan ehkä ymmärtää että jos käsitteet ajatellaan datasta emergoituviksi, niin myös kyberneettinen lähestymistapa voi sanoa jotakin käsitteiden emergoitumisesta.

Ja toinen asia on tietenkin tämä, että kun on hyvin korkeaulotteinen data, niin kehysongelma, mikä on tekoälyssä perinteinen ongelma – se että jos on jokin logiikkajärjestelmä, jossa tehdään päättelyitä joidenkin tunnettujen tosiasioiden perustella, niin kun ei tunneta sitä kokonaistilannetta, niin puuttuu maalaisjärki näistä järjestelmistä, aina.

Ne eivät voi ymmärtää tätä kokonaisuutta, tämmöiset logiikkajärjestelmät.

Mutta jos kyberneettisessä järjestelmässä nämä kaikki emergentit ilmiöt pohjautuvat hyvin suureen määrään – loppujen lopuksi kaikkeen siihen mittaustietoon mitä on tarjolla – niin ainakin jossakin mielessä on tämä reaalimaailman ymmärrys, tai reaalimaailman data, ainakin tarjolla siinä päättelyssäkin, sitten.

Muita tämmöisiä tekoälyn perinteisiä ongelmia ovat esimerkiksi aivoproteesin paradoksi, ja sitten kiinalaisen huoneen paradoksi, jonka tämä Searle esitti.

Nämä eivät ehkä teille kovin paljon sano jos ette ole tekoälyä tutkineet, mutta ihan lyhyesti voisi todeta että tämä aivoproteesiparadoksi tulee siitä, että jos ajatellaan korvaavamme aivoista yksi kerrallaan neuronit jollakin keinotekoisella laskentaelementillä, joka täysin toteuttaa kaikki ne ilmiöt joita tämmöinen neuroni toteuttaa, niin eikö siinä vaiheessa kun kaikki neuronit on korvattu, niin eikö tämä loppujen lopuksi tee sitä samaa mitä ne alkuperäiset aivot tekivät?

No tämä on hyvin vaikea hyväksyä tietyille tekoälytutkijoille jotka eivät hyväksy vahvan tekoälyn ajatusta ollenkaan – jotka eivät voi hyväksyä että kone koskaan voisi tehdä sitä mitä ihminen tekee.

Mutta tässä kyberneettisessä kehyksessä voidaan ajatella että on melko lailla samantekevää mitkä ovat ne alla olevat koneistot – tärkeintä on vain se dynamiikka, ja nämä tämmöiset attraktorit siellä avaruudessa, oli se sitten data-avaruus, tai idea-avaruus, niin avainasia on juuri tämä tasapainojen malli – ja siinä mielessä tämmöinen "mieli" lainausmerkeissä voidaan todellakin toteuttaa myös aivojen ulkopuolella.

[14:20/5]

Tässä on muutama sana näistä perinteisistä argumenteista mitä täällä tekoälyn puolella on tehty, eli on hyvin ristiriitaisia näkemyksiä siitä, että mihin tekoäly voi päästä.

Aika pitkälle tämän keskustelun ärhäkkyys johtuu siitä, että tämä ajattelu on loppujen lopuksi se ihmisen omin alue.

Kun koneet rupesivat tekemään ihmisen muita töitä, niin on jotenkin ajateltu että tämä mielen toiminta on se ihmisen oma, johon nyt ei ole syytä sotkea koneita.

Mutta vaikka voisimmekin toteuttaa tekoälyn, niin mielestäni ei ole kovin paljon pelättävää siinä mielessä että meidän ainutlaatuisuus säilyy kyllä.

No näihin palataan sitten vielä viimeisellä kerralla, näihin filosofisiin kysymyksiin.

Mutta tosiaan tämmöinen enemmän järkiperäinen argumentti tekoälyä vastaan on tämä argumentti jossa väitetään että ihmismieli ei voi tarkkailla ihmismielen toimintaa.

Tai ei voi ymmärtää ihmismielen toimintaa.

Eli tarvittaisiin jokin voimakkaampi koneisto joka pystyisi ymmärtämään tätä meidän mielemme toimintaa, ja silloin ihmismieli ei ole riittävän vahva koneisto siihen.

Toinen näkökulma on sitten tämmöinen äärimmäinen optimismi, eli ajatellaan että ehkä 20 vuoden kuluttua tietokone on niin nopea, että se pystyy – vaikka se olisi [sarjallinen, peräkkäinenkin] – niin pystyy toteuttamaan saman määrän laskutoimituksia sekunnissa, kuin aivot tällä hetkellä, tai ihmisaivot pystyvät nykyisellään toteuttamaan.

Eli automaattisesti kun laskentakyky on samalla tasolla, niin se on älykäs se koneisto.

Mutta, tämähän palautuu siihen mistä keskusteltiin aikaisemmin, että vaikka tehtäisiin äärettömän nopeasti jotakin toimintaa, niin se ei tuo siihen älykkyyttä, jos ei tehdä oikeita asioita.

Tekoälypuolella on aika erikoinen tämä ilmiö, että miltei joka vaiheessa on luvattu että 20 vuoden kuluttua asiat on ratkaistu – tämä on alkanut jo silloin 50-luvulla, ja aina se 20 vuoden tavoite on siirtynyt 20 vuotta eteenpäin, jossain vaiheessa.

[17:12/6]

Nyt tällä kertaa otetaan tämmöinen välimuoto näiden kahden äärimmäisyyden välillä, tämmöinen suoraan sanoen insinöörimäinen lähestymistapa, ja todetaan, että jotakin kiinnostavaa on varmaankin saatavissa aikaan, jos ruvetaan tämmöisiä kiinnostavia mallirakenteita soveltamaan tähän kognitiiviseen ongelmaan – eli käytännössä mittausdata korvataan nyt havaintodatalla.

Se on muodollisesti aivan pieni harppaus, mutta käsitteellisesti se on kuitenkin aika suuri harppaus, että jos vaihdetaan tämmöiset sensorit aisteiksi, tai aistimet aisteiksi.

Aika pitkälle lähdetään siitä, että todellakin, iteraatio ja asioiden toistaminen, kun sitä tehdään riittävän paljon, ja on käytössä tämä E-operaattori, niin meillä emergoituu jotakin mitä suoraan datasta ei voida nähdä.

[18:27/7]

Mutta, jos lähdetään tätä älykkyttä nyt tälla tavalla tavoittelemaan, niin ensin on ehkä syytä käydä läpi näitä käsityksiä siitä, että mitä oikeastaan pitäisi tavoitella.

Tässä on nimittäin kiinnostavaa se, että tämä perinteinen älyn tai tekoälyn tavoite, eli tämä Turingin testi – se perustuu siihen, että ajatellaan että kone on älykäs siinä vaiheessa, kun se pystyy matkimaan ihmisen käyttäytymistä, sillä tavalla että ulkopuolinen tarkkailija ei voi erottaa koneen käyttäytymistä ihmisen käyttäytymisestä, joka lähtökohtaisesti oletetaan älykkääksi.

Tämä on äärimmäisen behavioristinen tulkinta, ei olla millään tavalla kiinnostuneita siitä, että millä tavalla mieli oikeasti toimii.

Siinä mielessä tämä lähtökohta – voidaan jopa sanoa että se on johtanut tekoälytutkimusta jollain tavalla väärille raiteillekin.

Koska ehkä kiinnostavampi kuin tekoäly, on tämmöinen universaaliäly – eli tekoälyä tässä Turingin mielessä ei voida tavoittaa ennen kuin pystytään toteuttamaan koneelle kaikki ne aistimukset mitä ihminen saa, tässä kehossansa.

Mutta universaaliäly, joka sopeutuu niihin aistimuksiin mitä se kullakin hetkellä pystyy saamaan, niin se on ehkä toteutettavissa kuitenkin – eli tämmöinen universaalimpi lähestymistapa on helpompi toteuttaa kuin tämmöinen ihmisen toimintaan erikoistunut näkökulma.

No, tästä älyn määritelmästä voisi vielä todeta, tietyllä tavalla se on yksi niistä emergenteistä ilmiöistä jotka melkein määritelmällisesti pakenevat kaikkia määrittely-yrityksiä – koska siinä vaiheessa kun voitte määritellä älykkyyden, niin siinä vaiheessa te voitte myös implementoida jonkun koneen joka toteuttaa sen määritelmän.

Esimerkiksi tekoälyn alalla on hyvin paljon tehty tämmöisiä sovellutuksia, ja shakkipeli on hyvin tyypillinen esimerkki tästä, että aivan aluksi määriteltiin että siinä vaiheessa, kun tietokoneohjelma pystyy pelaamaan shakkia mielekkäästi, voimme sanoa että se on älykäs.

Mutta siinä vaihessa kun tämä tosiaan kyettiin toteuttamaan, eli tietokone pelasi ihan hyvää shakkia, niin todettiin että tavoitteet siirtyvät.

Että – koska ymmärsimme, kuinka se kone toimii, niin se ei enää vastaa meidän käsitystä älykkyydestä.

Sen jälkeen asetettiin tavoitteeksi, että no joo, mutta ennen kuin se voittaa hyvän pelaajan, tai ennen kuin se voittaa maailmanmestarin, niin ei siinä nyt oikeastaan olekaan älykkyyttä, ja tällä hetkellä kun maailmanmestari on voitettu, niin tavoitteet ovat taas siirtyneet eteenpäin.

Eli tällä tavalla tätä ei tavoiteta koskaan tätä älykkyyttä – sitä pitää lähestyä jollakin muulla tavalla.

Ja melkein samalla tavalla kuin näissä systeemeissä, kun määriteltiin, että systeemi on sellainen kokonaisuus jonka voi hahmottaa systeeminä, niin myös älykkyys on sellaista, jonka ihmisäly tai intuitio hahmottaa älykkyytenä.

Voisi sanoa että tämä on yksi määritelmä, ja jos lähestymme tästä näkökulmasta asiaa, niin silloin ehkä kaikkein loogisinta on kysyä asiantuntijoilta, kaikkein älykkäimmiltä ihmisiltä kuinka he määrittelisivät älykkyyden – mikä heidän intuitionsa on asiaan?

Kysytään joiltakin Mensan jäseniltä tätä asiaa.

No, heidän älykkyyskokeissaan mitataan älykkyyttä.

Ja, loppujen lopuksi näissä älykkyystesteissä mitataan sitä, että kuinka hyvin pystytään havaitsemaan hahmoja havaintodatassa.

Eli teillä on muutama kappale joitakin esimerkkejä – teidän pitäisi älykkyystestissä kyetä havaitsemaan että mikä on jokin jatkumo, tai mikä on yhteistä näille kaikille kuvioille, ja sen perusteella sitten päätellä miten kuviojono jatkuu.

Tässä määritelmässä on vain se ikävä puoli, että tämmöinen tekoäly on hyvin helppo toteuttaa – minäkin olen tehnyt tämmöisen ohjelman joka pystyy tekemään älyä,

[23:34/8]

tai toteuttamaan älykästä käyttäytymistä tässä mielessä.

Eli jos meillä on maailma näin kapea, että se voidaan supistaa tämmöiseen, esimerkiksi tämmöiseen ruudukkoon, niin silloin nämä kaikenlaiset assosiaatiot ja hahmot ovat tietokoneenkin hallittavissa, jopa paremmin kuin ihmisen hallittavissa.

Voitte esimerkiksi katsoa tätä yläriviä täällä, että mikä semmoinen piirre on yhteistä näille kolmelle ensimmäiselle kuviolle, mitä ei tässä neljännessä kuviossa ole, elikä mikä on se yksinkertaisin hahmon määritelmä, joka erottaa nämä kolme tästä neljännestä?

No, semmoinen ratkaisu, jonka kone tälle löysi, on että tässä on vain yksi tämmöinen alkeishahmo, tässä kuvassa, kun näissä muissa on kaksi.

Tässä sitten tässä seuraavassa rivissä on sama kysymys, eli kolme ensimmäistä kuviota kuuluvat joukkoon, ja neljäs ei kuulu joukkoon.

No kaikissa näissä kolmessa ensimmäisessä on vaakaviiva, ja tässä neljännessä ei ole.

Tämänkin kone löysi – mikrosekunnissa.

[25:03/9]

No, ehkä meidän on syytä ottaa vähän laajempi näkökulma ja katsoa että miten joissakin muissa kulttuureissa kuin länsimaisessa on älykkyyttä määritelty.

Äärimmäisen erilainen näkökulma asiaan on todellakin täällä itäisissä uskonnoissa, jossain zen-buddhalaisuudessa, jossa lähdetään hyvin päinvastaisesta näkökulmasta.

Eli älykkyyttä voi olla, tai ihmisen syvintä älykkyyttä kuvaavaa toimintaa, voi olla vain tämmöinen ei-proseduraalinen ajattelu – täysin assosiatiivinen.

Vain silloin kun pystyt kaikki ajatukset karkoittamaan mielestäsi, niin vain silloin olet saavuttanut tämän valaistumisen vaiheen, jossa tietyllä tavalla ymmärrät kaikki asiat, ilman että sinun täytyy erikseen ajatella niitä asioita.

Tämä on nyt ainakin minun tulkintani tästä.

Eli nämä, tämmöiset, zeniläiset koanit, ovat juuri esimerkkejä siitä, että kuinka yritetään ihmisiä opettaa siihen että millä tavalla ihmismieli ajattelun avulla tuottaa paradokseja.

Eli näillä zen-mestareilla on tavoitteena se, että johdattaa oppilaat siihen tilaan jossa ei voi enää tehdä mitään kysymyksiä.

Ja tämä viimeinen täällä erityisesti sopii tähän kyberneettiseen ajatteluun, että ennen tämmöistä zenin omaksumista, niin ihminen näkee vuoret ja ihmiset tämmöisinä erillisinä asioina – siinä vaiheessa kun alkaa ymmärtää asioita syvemmin, niin silloin nämä jotenkin sekoittuvat nämä asiat keskenään, että ei olekaan täysin erillään, oikeastaan mikään asia maailmassa, kaikki on jollain tavalla yhteistä – mutta sitten kun on saavuttanut tämän zeniläisen tavoitteen, niin siinä vaiheessa, jälleen nämä vuoret ja ihmiset ovat erillisiä, mutta jollakin ylemmällä tasolla, ei sillä arkiajattelun tasolla.

Mutta aivan samalla tavalla kuin näissä muissakin koaneissa, niin tässäkään ei ole tarkoitus ruveta miettimään sitä, että mitä tämä ylemmän tason ajattelun ajattelu nyt sitten on, koska silloin – jos te ajattelette Buddhaa, niin teidän pitää tappaa se Buddha sieltä mielestänne, koska se on ainoa keino päästä eteenpäin.

[28:06/10]

Mennään nyt konkreettisesti, ihan insinöörimäisesti asioita eteenpäin, eli totesimme tuossa äsken että oikeastaan nämä perinteiset lähestymistavat, ne ovat hyvin ristiriitaisia ja ne johtavat vain paradokseihin.

Niin lähdetään liikkeelle aivan tästä neuronien toiminnasta, ja katsotaan mitä voidaan saada aikaan.

Ja pyritään tulkitsemaan sitten se lopputulos näiden kognitivististen teorioiden puitteissa.

Ajatus on nyt se, että ei alunperin ole muuta kuin joukko neuroneita, jotka hakevat informaatiota – tai hakevat variaatiota, hakevat resursseja – kaikki kilpailevat keskenään siitä variaatiosta, ja juuri se neuroni joka on kaikkien vähiten saanut tätä herätettä, se on kaikkein aktiivisin, se haluaa kaikkein voimakkaimmin kytkeytyä johonkin informaatiolähteeseen.

Informaatiota nyt on esimerkiksi se variaatio mitä tulee näistä aistimista, eli voidaan ajatella että alimmalla tasolla, alimman tason assosiaatioita ovat ne, jotka yhdistävät neuraalisia, tai tämmöisiä aistihavaintoja yhteen.

No sitten kun on tämmöinen alimman tason neuronaalinen taso, jonkunlainen verkko – assosiatiivinen mediumi, niin kuin käytetään tässä tämmöistä nimitystä – niin sen päälle voi ruveta rakentumaan monimutkaisempia rakenteita.

Eli jos siellä assosiatiivisessa verkossa nyt ovat jotkin osat aktivoituneet yhtä aikaa, niin jokin seuraavan tason neuroni voi ruveta mallittamaan tätä aktiivisuusyhdistelmää.

Jos tämmöinen aktiivisuusyhdistelmä on relevantti, että se esiintyy usein, tai sillä tavalla että se on stationaarisessa mielessä mielekäs, tai tarpeellinen, relevantti, niin silloin tämä neuroni, se on tyytyväinen ja enemmän tai vähemmän stabiloituu esittämään tätä variaatioyhdistelmää.

Silloin kun se syö tätä variaatiota sieltä järjestelmästä pois, niin muut eivät enää näe sitä resurssia, ja joutuvat kilpailemaan jostain jäljelle jäävästä variaatiosta.

Se mikä on mukavaa, on se että tämä neuroni joka on nyt löytänyt oman roolinsa, niin sille tulee aktivaatiota, eli se perii tämän alempaa tulevan aktivaation itseensä, ja tätä aktivaatiota voivat nämä toistaiseksi nälässä olevat neuronit ruveta käyttämään.

Tällä tavalla voidaan ajatella, että ainakaan tämmöinen alimman tason assosiaatioiden muodostuminen ei edellytä mitään korkean tason kontrollia, lähtökohtaisesti.

Vaan aivan tämmöinen tabula rasa -metafora ilman ulkopuolista ohjausta riittää rakentamaan havaintojen pohjalle tämmöistä jonkunlaista kyberneettistä kokonaisuutta.

No nyt voidaan miettiä sitä, että jos me esimerkiksi kuulemme jonkin tarinan, niin miten pystymme sen tällä koneistolla sitten oppimaan, tai muistamaan.

[32:08/11]

No, tässä on esimerkki siitä, että on esimerkiksi kuultu tämmöinen tarina, että ilkeä poika heittää kiven ikkunaan ja ikkuna särkyy.

Jos nyt ajatellaan että on riittävän monimutkainen kognitiokoneisto jo olemassa, ja alemman tason assosiatiivinen media on tarjolla, niin silloin tieto siitä, että viitataan johonkin ikkunan käsitteeseen, aktivoi täällä verkossa jonkin tietyn joukon neuroneita, jotka tulevat aktiivisiksi.

Ja nyt, tai se ikkunan käsite nimenomaan syö tämän aktiviteetin, joka määrittelee tämän ikkunan käsitteen.

Mutta nyt tässä tarinassa on esimerkiksi tämä ilkeän pojan käsite, tai tietyn ilkeän pojan käsite, josta on puhuttu jo aikaisemmin.

Nyt siellä ovat nämä, tähän tiettyyn poikaan viittaavat assosiaatiot nyt aktiivisina, ja toisaalta termi ilkeys ja niin edelleen, ja nämä yhdessä tulevat tämän yhden neuronin, tai neuronijoukon, sieppaamiksi, tietyllä tavalla, eli nämä nopeasti kytkeytyvät dendriiteillään, nyt tähän joukkoon jotka sattuvat olemaan yhtä aikaa aktiivisena.

Vastaavasti, kun seuraavaksi tulee tämä, että kivi on heitetty, eli poika on heittänyt kiven, niin tämä kiven heitto, se on seuraava käsite joka aktivoituu, eli nimenomaan tämä tietyn kiven heitto aktivoituu, ja se kytkeytyy siihen sen hetkiseen assosiaatioiden kokonaisuuteen.

Vielä ylempänä on sitten tämä, että nyt kun se ilkeä poika on sen kiven heittänyt, niin sitten tämä tarina etenee täällä neuraalisella tasolla sillä tavalla, että tämä ilkeän pojan heittämä kivi on oma, jossain mielessä jo symbolinen, käsitteellinen kokonaisuus.

Koko tarina, edelleen, kun se kytkee nyt tämän ilkeän pojan heittämän kiven ja rikkoutuneen ikkunan, niin se muodostaa tämän ylimmän tason tarinan, tai yksittäisen lauseen, kokonaisuuden.

No, nämä nyt ovat tämmöisiä hyvin yksittäisiä assosiaatioiden hetkellisiä ilmentymiä täällä.

Jos tätä ei koskaan enää esiinny tätä assosiaatioiden kokonaisuutta, niin nämä eivät aktivoidu enää koskaan, ja niiden aktiviteettitaso, sen yhden ainoan aktiivisuuspurskauksen jälkeen, laskeutuu kohti nollaa, ja tästä seuraa se, että ne joutuvat hakemaan uutta aktiviteettia, eli ne joutuvat hakemaan uutta käsitettä tai uusia asioita assosioitavakseen.

Ne unohtavat tämän tarinan sitten.

Ellei tämä tarina toistu riittävän usein.

Tai ellei tämä ole jollain tavalla relevantti, jolloin nämä riittävän usein aktivoituvat nämä, jolloin nämä kytkennät täällä vahvistuvat.

Eli jos ne ovat pitkällä tähtäimellä relevantteja nämä kytkennät, niin silloin myös tämä neuronin aktiivisuus pysyy riittävällä tasolla ja tämä muistetaan tämä tarina.

Toisaalta jos nämä ovat yleisiä käsitteitä, jotka – esimerkiksi niin kuin tämä ikkuna täällä, tai kivi täällä – ne voivat esiintyä hyvin erilaisissa yhteyksissä, jolloinka niiden kytkennöillä, yksittäisillä assosiaatioilla, ei ole semmoista pidemmälle menevää merkitystä, ja oikeastaan korkeamman tason relevantti kategoria on joku poika tai kivi tai heittäminen, niin silloin nämä tämmöiset käsitteet – juuri kivi, poika, heittäminen – ne sinänsä aktivoituvat kyllä, riittävän usein, mutta niiden yläpuolelle ei ehkä muodostu mitään pysyvää rakennetta enää – mutta kun nämä assosioituvat hyvin, tai aktivoituvat hyvin eri ympäristöissä, nämä kiven, ja pojan käsitteet, niin ne lopulta vajoavat relevantteina noodeina, relevantteina käsitteinä tähän verkostoon, jossa ne ovat kyllä käytettävissä, mutta niiden kytkentää johonkin yksittäiseen lapsuudessa koettuun johonkin kiven kokemukseen, ei enää pystytä palauttamaan, mutta kuitenkin siinä on tietyllä tavalla tätä semmoista niin sanottua kvaliaa mukana.

Eli siinä on hyvin paljon kytkentöjä yksittäisiin vanhoihin alatason kokemuksiin, jotka eivät ole eksplikoitavissa, enää.

Siinä mielessä kaikilla ihmisillä on erilainen näiden käsitteiden koostumus sinänsä, mutta jos ne ovat täällä ihmisten maailmassa objektiivisesti tärkeitä käsitteitä, heille, meille muodostuu interobjektiivinen maailma, tai ainakin intersubjektiivinen maailmankuva.

Tähän palataan tuossa viimeisellä kerralla vielä, näihin tämmöisiin episteemisiin kysymyksiin.

No, tämä tarkastelu johtaa siihen, että voimme heti vastata joihinkin perinteisiin kognitiotieteen ongelmiin.

Ja oikeastaan juuri tähän kognitiotieteen ja teköälyn perinteiseen kuiluongelmaan, että miksi on niin vaikea päästä täältä symbolien tasolta tähän datan tasolle tai toisinpäin.

[38:50/12]

Nyt on harpattavissa yli tästä noviisin ja asiantuntijan tietämyksen eroavuuden, tai tietämyksen esittämisen eron, ongelmasta, yli.

Perinteinen kognitiotieteen ongelma on se, että kun aloittelija oppii – esimerkiksi shakin oppii sillä tavalla että tietää että hevonen liikkuu näin ja näin, moukka liikkuu näin ja näin.

Hän ei vielä kovin pitkälle menevää strategiaa pysty näillä rakentamaan – se on aikalailla kokeilevaa tämä sääntöihin pohjautuva toiminta, tämmöinen noviisiajattelu.

Sen sijaan asiantuntijoilla on tämmöinen hahmotyyppinen ajattelu, että näkee jonkin tilanteen mielessään, palauttaa sen jollakin tavalla, pystyy rekonstruoimaan sen joihinkin entisiin asetelmiin, ja esimerkiksi tämmöiset avaukset ja muut, ne ovat semmoisia – siis shakkipelin avaustilanteet ovat tietynlaisia kategorioita mitä asiantuntija näkee ja pystyy tietyllä tavalla rekonstruoimaan tämän laudan, tämmöisten mielekkäiden kategorioiden mielessä.

Tämä asiantuntija-ajattelu on juuri tämmöistä assosiatiivista, hahmoihin pohjautuvaa ajattelua.

Perinteisesti on hyvin vaikea yhdistää näitä kahta – tai selittää että kuinka tämmöinen aloittelijan ajattelu muuttuu asiantuntijan ajatteluksi.

Kuinka tämmöinen deklaratiivinen tietämys muuttuu assosiatiiviseksi tietämykseksi?

No, tuon äskeisen tarinan oppimisen, tai jonkin kiven käsitteen oppimisen kautta siellä on ehkä enemmän työkaluja tähän oppimiseen, tai ymmärtämiseen.

Perinteisesti tietenkin kun puhutaan asiantuntijuudesta, niin puhutaan jostakin korkean tason monimutkaisen asiantuntijuusongelman käsittämisestä ja hahmottamisesta, mutta jokin jo ihan kiven käsitteen ymmärtäminen, tai tuolin käsitteen ymmärtäminen, se on sitä ihmisen hiljaista tietämystä, mitä ei yleensä osata riittävästi arvostaa, ennen kuin sitä ruvetaan toteuttamaan joillakin roboteilla.

Esimerkiksi tuolin käsite, se on kaikkea muutakin kuin neljä jalkaa ja selkänoja – siihen hyvin pitkälle assosioituvat kaikki tämmöiset funktiot juuri, eli se istumisen funktio on olennainen osa tuolin käsitettä, ja niin edelleen.

[41:55/13]

No, nyt jos ruvetaan ajattelemaan että käsitteet todellakin pohjautuvat kyberneettisiin tai neokyberneettisiin perusrakenteisiin, niin silloin voimmekin ruveta lähestymään tätä asiaa toisesta näkökulmasta.

Eli minkälaisen rakenteen kantilaisessa mielessä tämä kyberneettinen koneisto asettaa sille havaintoaineistolle?

Jos on muutama havaintoaineisto ainoastaan olemassa, tai muutama datapiste, joka esittelee esimerkiksi – jollakin lapsella, se on nähnyt esimerkiksi muutaman erilaisen koiran, ja näiden muutaman koiran käsite, tai näköhavainto, alustavassa mielessä määrittelee tällä lapsella sen koiran käsitteen, ja todellakin vaikka se ei ole nähnyt kovin montaa koiraa, niin sillä on se koiran käsite jo olemassa, joka tarkentuu sitten myöhemmin kun saadaan lisää koirahavaintoja.

Mutta siinä vaiheessa kun on vain muutama koirahavainto, niin voidaan sanoa, että tämä itse käsitteen rakenne on jo olemassa, koska tämä kyberneettinen koneisto on sen pakottanut sille datalle, eli kun on sitä dataa sovitettu tähän koiran käsitettä vastaavaan neuronien joukkoon, niin tämän tulkinta on sama kuin jos olisi suuri joukko dataa, jotka olisivat johtanut siihen koiran käsitteeseen.

Eli on tietyllä tavalla ylhäältä päin katsottuna – kun ruvetaan tulkitsemaan tätä neuraalirakennetta – voidaan ajatella että on virtuaalista dataa, joka on virittänyt tämän aineiston, tai tämän, tämmöisen jakauman.

Koska tietyllä tavalla nämä kyberneettiset rakenteet, ne edustavat datan jakaumaa.

Niin tämän datan jakauma kuvaa nyt jonkunlaista virtuaalista dataa, joka jakauma sitten muokkautuu sen mukaan kun saadaan lisää aineistoa.

Että minkälainen on tämä virtuaalinen datajakauma nyt sitten, joka kaikille neokyberneettisille rakenteille asetetaan?

Sehän perustuu juuri tähän, näihin pääkomponentteihin ja muihin, eli käytännössä voidaan sanoa, että alla oleva virtuaalisen datan jakauma on Gaussista dataa, koska juuri nämä pääkomponentit, ne edustavat Gaussisen datan jakauman parhaalla mahdollisella tavalla.

Ainoa mitä voimme tästä havaintojen jakaumista siis – tai se mitä voidaan parhaalla mahdollisella tavalla sanoa, se palautuu tämmöisiin Gaussin jakaumiin, sitten.

Eli mitä se tarkoittaa?

Miten on nyt tulkittavissa nämä ellipsoidit – eli kun taas tätä datajakaumaa, tämmöistä Gaussista jakaumaa tulkitaan korkeaulotteisessa avaruudessa, niin sen tulkintahan on tämmöinen ellipsoidi eri projektioissa.

Mitä nämä ellipsoidit nyt ovat?

No nämä ellipsoidin pääakselit ovat nyt näitä pääkomponentteja sitten.

Eli nämä pääkomponentit, niillä on selvästi relevanssia tässä tulkinnan kannalta, koska se että jokin tämmöinen, jotain käsitettä kuvaava jakauma on johonkin tiettyyn suuntaan pidempi siellä havaintoavaruudessa, niin varmasti sillä on jokin relevanttiutensa.

[46:02/14]

Tässä nyt tarkastellaan juuri sitä, että miten voidaan tulkita näitä pääkomponetteja.

Jos havaitaan, että jossakin tietyssä suunnassa on paljon variaatiota jonkin käsitteen ympärillä – se on relevantti käsite, mutta sen käsitteen puitteissa on paljon heittelyä – niin siinä suunnassa tämä jakauma on sitten pitkulainen.

Esimerkiksi jos on jokin koiran käsite, ja sitten on nähty hyvin eri kokoisia koiria kuitenkin, niin tässä koko-käsitteen mielessä – joka koko-käsite on alemman tason käsite, joka on attribuuttina tälle koiran käsitteelle – sen mielessä meillä on tämmöinen pitkulainen tämä, ja sitten, no esimerkiksi jokin ruskeus-akseli on sitten jokin toinen akseli, jossa suunnassa on enemmän tai vähemmän tätä variaatiota.

No, koiran tapauksessa nyt tämä ruskeus on aika – siinä on aika suuri variaatio, koska on valkoisia koiria ja keltaisia koiria ja niin edelleen, eli tämä nyt ei kovin hyvä esimerkki ehkä ole, mutta jokainen satunnainen havainto koirasta – esimerkiksi täällä on tämmöinen Fifi-koira – niin se, nyt voidaan sanoa että jos on sanottu että tämä villakoira Fifi nyt kuuluu koiriin, niin lapsi muodostaa, tai muokkaa tätä koiran käsitettä sitten sen mukaisesti.

Se ehkä venyy tänne, tämän ruskeus-akselin suunnassa nyt, vähän laveammaksi, koska on nyt tämmöinen valkoinenkin koira nyt mukana – ja valkoisuus tulee osaltaan määrittämään tätä koiraa sitten myös.

Eli tämä Fifi on poikkeuksellisen pieni ja poikkeuksellisen epäruskea.

Tämä keskus täällä tietyllä tavalla vastaa nyt ehkäpä jonkunlaista alisymbolista käsitettä.

Voitaisiin puhua ehkä miellerakenteista, tai muistiedustuksista, tai chunkeista, englanniksi puhuen.

Ylemmällä tasolla voidaan puhua kategorioista, ja hahmoista.

Ja sitten taas nämä, jotka virittävät tätä keskusta eri suuntiin, ovat tämmöisiä attribuutteja tai sitten jonkunlaisia nyansseja, tai piirteitä.

Tässä ollaan aika lähellä käsitteellisten avaruuksien lähestymistapaa, jota on tarkasteltu tuolla kognitiotieteessä – esimerkiksi Peter Gärdenfors, ruotsalainen tekoälytutkija, on esitellyt tämmöisen lähestymistavan.

Mutta semmoisenaan tämä ei ole vielä kovin uskottava malli meidän mielelle, tai mentaalisille struktuureille – tämmöinen lineaarinen malli.

[49:30/15]

No katsotaan nyt, ennen kuin mennään syvemmälle asiassa, niin tarkastellaan hieman liittymäkohtia perinteiseen kognitiotutkimukseen.

Voitaisiin sanoa, että prototyyppiteoria on hyvin lähellä tätä lähestymistapaa, eli tässä on liittymäkohtia, kun korvataan näitä tiettyjä käsitteitä toisilla, niin voidaan havaita että näillä on yhtymäkohtia näillä perinteisillä tutkimuksen aloilla.

Eleanor Rosch on nimi, joka on aika pitkälle tämän prototyyppiteorian kanssa, tai jollakin tavalla identifioituu tähän alkuperäiseen ehdotukseen.

Eli jokaisella käsitteellä on tämmöinen prototyyppi, esimerkiksi koiran prototyyppi, ja sitten kun on erilaisia prototyyppejä, niin on sitten mielen malli siinä.

No perusongelma tässä on se, että mikä on tämä sisäinen rakenne tämmöisillä prototyypeillä – jos ei sillä ole mitään koneistoa tai siihen, sen käsittelyyn koneistoa, niin tämä jää aika pitkälle tämmöiseksi käsitteelliseksi pyörittelyksi, ja esimerkiksi tuolla tekoälyn puolella kun on sovellettu tätä lähestymistapaa, on ajateltu että mehän voimme tämmöisiä prototyyppejä ruveta soveltamaan päättelyyn, teknisellä tasolla, niin päästiin tämmöiseen kuin Case-Based Reasoning malliin, jossa juuri ajatellaan että erilaiset esimerkit menneestä käyttäytymisestä, ne ovat tämmöisiä prototyyppejä, ja haetaan sitten yhtäläisyyksiä uuden tapauksen ja vanhojen prototyyppipäättelyiden välillä, josta voidaan sitten johtaa se, että miten pitäisi päätellä uudessa tilanteessa.

No, silloin kun ei näiden prototyyppien välillä ole tarkasti määriteltyä metriikkaa, niin ongelma on sitten se, että millä tavalla voidaan näiden prototyyppien läheisyys määritellä, eli juuri tämä Case-Based Reasoning – siinä ollaan ongelmissa juuri tämän kanssa että jos ei ole sisärakennetta näillä prototyypeillä, niin ei oikein voida tehdä kovin paljoa.

No, neokyberneettisessä kehyksessä, meillä todellakin on metriikkaa, joka on tämän datan perusteella määräytynyt, paremminkin.

No ihan filosofian puolella on sitten tämmöinen Embedded Embodied Cognition -lähestymistapa, jossa aika pitkälle lähdetään samasta ajattelusta kuin tässä Rodney Brooksin tässä käyttäytymispohjaisessa lähestymistavassa – eli nämä kognitiiviset käsitteet ovat mielekkäitä vain siinä mielessä kun ne ovat kytkeytyneet maailmaan, tai ruumiillisuuteen, tai aivoihin.

Eli tämä on kuitenkin aika lailla modernia, tämä ei ole millään tavalla loppuun puhki kaluttua asiaa tämä,

[53:06/16]

millään tutkimuksen alueella, ei kognitiotieteessä, ei filosofiassa, eikä neurotutkimuksessa eikä robotiikassa, eli kenttä on aika lailla vielä avoin, uusille ehdotuksille.

Ja sitten tekoälyn puolella on paljon tämmöisiä muita lähestymistapoja, joilla on läheinen liittymäkohta näihin äskeisiin tarkasteluihin – esimerkiksi nämä sumeat osajoukot on yksi tämmöinen lähestymistapa etenkin tietämyksen mallintamiseen.

Ja sitten, semanttiset verkot, jossa nimenomaan puhutaan näistä semantic neteistä, eikä semantic webeistä – suomessa nyt on tämä verkko-sana, se nyt oikeastaan kuvaa näitä molempia asioita, mutta semanttisten nettien yhteydessä tarkastellaan nimenomaan tällaisia – no, meillä tulee hetken kuluttua,

[54:06/17]

tai tässä onkin juuri tämmöinen esimerkki semanttisesta verkosta tässä netin mielessä.

Eli näitä on rakennettu jo kauan ennen kuin oli semanttisia verkkoja webin mielessä.

Eli määritellään esimerkiksi Fifille tämmöinen käsitekartta, sillä tavalla että se on esimerkki koirasta, joka on esimerkki kotieläimestä.

Ja sitten Fifillä on ominaisuus – no tässä tapauksessa nyt olisi ehkä ominaisuus valkoinen, jos se on tämmöinen villakoira.

Mutta mikä tämän villakoiran ydin sinänsä on, niin tässä ei päästä oikein kovin pitkälle, koska tämä on juuri sitä perinteistä tekoälyä, jossa – jotta saisimme jonkin mielekkään kokonaisuuden, täytyy olla kohtuullisen pieni määrä näitä kytkentöjä reaalimaailmaan.

Eli Fifi määritellään esimerkiksi koiramaisuuden kautta, ja sen valkoisuuden kautta, ja jos tästä ruvetaan tekemään päättelyä, juuri tämä reaalimaailman ymmärrys, kaikki koiramaisuuden piirteet, ovat poissa, eli juuri tämä kehysongelma seuraa tästä, tämmöisestä tarkastelusta.

Nyt tässä kyberneettisessä kehyksessä siellä data-avaruudessa on todellakin tämä Fifikin jossakin tietyssä hyvin korkeaulotteisen avaruuden osassa.

Osa näistä attribuuteista sille Fifille on määräytynyt sen mukaan, että tiedämme että se on koira, mutta tietyt attribuutit, jotka eksplisiittisesti nähdään siitä, niin ovat määräytyneet sen näköhavainnon perusteella, esimerkiksi se valkoisuus.

No, sumeat osajoukot, tässä on ehkä kuva siitä.

Eli voidaan ajatella että tämmöisten lemmikkieläinten joukko on kaikkein laajin joukko, sitten koirien joukko on sitten sen osajoukko, ja Fifin – tai Fifi on sitten tämän koirajoukon alkio.

No näissä on vähän ongelma näissä sumeissa käsitteissä se, että toisaalta tämä ruskeus tai valkoisuus määrittelee myös tätä Fifi-koiraa.

Ja nämä sumeat osajoukot on siinä mielessä vahva teoriarakennelma että voi olla esimerkiksi tämä ruskeiden tai valkoisten asioiden joukko, se voi pitää sisällään myös tämän Fifin, vaikka tämä Fifi vain osaltaan kuuluu tähän valkoisuuteen, ja omalta osaltaan koiramaisuuteen, kun taas koiramaisuus paljon pienemmältä osin kuuluu tähän valkoisuuteen.

Eli tämä sumeus näissä osajoukkokäsitteissä tarkoittaa sitä, että kun jonkin joukon alkio perinteisessä mielessä on todellakin alkio, niin tässä sumeiden osajoukkojen mielessä myös se alkio on joukko, joka omalta pieneltä osaltaan määrittää sitä ylijoukkoa.

Tämä neokyberneettinen kehys on siinä mielessä tämän tämmöisten sumeiden osajoukkojen käsitteen implementaatio, että kaikki käsitteet määrittelevät toisiaan – myös ne ylemmän tason käsitteet, kun sieltä myöhemmin muodostuu kytkentä, huomataan että jos Fifi on usein aktiivinen silloin kun koiriin viitataan, niin myös koiramaisuuteen tulee kytkentä sieltä ylemmän tason käsitteestä eli Fifistä, ja silloin tämä yksi esimerkki on omalta osaltaan määrittelemässä koiran sisältöä, omalta pieneltä osaltaan.

Eli jos koiramaisuus määrittelee Fifin, niin myös Fifimäisyys määrittelee koiran, jossakin mielessä.

Nämä ovat perinteisen logiikan mielessä, perinteisen joukko-opin mielessä vähän hämäriä nämä asiat, nämä sumeat asiat, mutta näiden sumeiden osajoukkojen puitteissa voidaan juuri nämä perinteisten osajoukkojen heikkoudet monella tapaa välttää.

Ja kun tämä kuuluvuuskin, se ei ole semmoinen yksi-yhteen tai 0-1 tyyppinen riippuvuus, vaan se on tämmöinen suhteellinen – eli jokin pingviini kuuluu lintuihin kyllä, mutta vain tietyllä kuuluvuudella, jonka kuuluvuus lintuprototyyppiin on pienempi kuin jollakin varpusella, koska esimerkiksi lentokyky ei ole pingviinin ominaisuus niin kuin muilla linnuilla tyypillisesti on.

[59:25/18]

No sitten jos ajatellaan näitä kaikkia sumeita osajoukkoja tämmöisinä käsitteinä – esimerkiksi ruskeus on oma käsitteensä jota määrittelevät ruskeat esineet, ja koiramaisuus on oma käsitteensä jota määrittelevät sen ominaisuudet, esimerkiksi ruskeus omalta osaltaan.

Eli jos ruskeista asioista puhuttaessa ovat koirat usein kyseessä, niin silloin – teidän täytyy nyt muistaa että nämä ovat kaikki tämmöisiä summautuvia nämä täällä neokyberneettisessä kehyksessä nämä lineaariset piirteet – eli tämä koiramaisuuden suunta korkeaulotteisessa data-avaruudessa nyt voi summautua tähän ruskeuden prototyyppiin, jolloinka koiramainen ruskea alue on tällä alueella jossakin ehkä, kun taas ruskeiden koirien alue on täällä lähempänä koiran prototyyppiä.

Eli tietyllä tavalla se kaikkein voimakkain sillä hetkellä käytössä oleva attribuutti on se itse käsitteen prototyyppi.

Eli ei ole eroteltavissa, tai ei ole kannattavaa erotella erikseen kategorian käsitettä ja attribuuttien käsitettä, koska kyberneettisessä kehyksessä voidaan niiden sisäinen toteutus saada aivan samaan kehykseen, ja silloin juuri tämmöinen asia, että koiramaisuus on sekä kategoria että ominaisuus, niin siihen voidaan vastata paljon paremmin kuin perinteisessä käsitehierarkiassa.

Jos esimerkiksi jossain C-kielessä määrittelette että koira on lemmikkieläimen osajoukko, tai Fifi on koirien instanssi, tai yksi esimerkki koirista, niin se ei millään tavalla auta teitä siinä koiran käsitteen määrittelyssä, kun taas kyberneettisessä kehyksessä, jos tunnemme tälle Fifille paljon ominaisuuksia, ne omalta pieneltä osaltaan määrittelevät koiran ominaisuuksia.

Jos koiralle ei tiedetä mitään muita esimerkkejä, niin nämä Fifin ominaisuudet sitten periytyvät kyllä.

[1:02:06/19]

Eli käsitteet ovat tietyllä tavalla data-avaruudessa tämmöisiä relevantteja attraktoreita.

Jos on data-avaruudessa riittävän usein päädytty johonkin tiettyyn pisteeseen –

[kasetinvaihto]

Eli nämä piirteet, tai attribuutit, määrittelevät sen käsitteen orientaation siellä data-avaruudessa.

[1:02:34/20]

No, jos nyt tarkastellaan näin määriteltyä käsitteellistä avaruutta tai semanttista avaruutta, niin huomataan hyvin nopeasti että ei kerta kaikkiaan ole riittävästi kuvausvoimaa tämmöisellä mallilla, koska esimerkiksi jos ajattelemme koiraa ja hevosta, niin niillä on tiettyjä yhteisiä piirteitä, esimerkiksi ne ovat kaikki eläimiä, hengittäviä, ja ne ovat jopa kotieläimiä molemmat, mutta hyvin varhaisessa vaiheessa lapsi oppii erottamaan koiran ja hevosen toisistaan, sillä tavalla että siinä on hyvin tarkka raja näiden kahden käsitteen välillä.

Että vaikka kameli voidaan sekoittaa vielä hevoseen, koska ne ovat tietyllä tavalla päällekkäisempiä, niin koira hyvin varhaisessa vaiheessa erotetaan hevosesta.

Eli nämä ovat käsitteinä hyvin pitkälle toisensa pois sulkevia, nämä kaksi käsitettä, ne eivät ole lineaarisesti summautuvia – eli vaikka hevonen ja koira molemmat ovat kotieläimiä, niin se ei vielä tarkoita että ne olisivat kovinkaan lähellä toisiaan mentaalisessa maailmassa.

Tämmöinen lineaarisuusajattelu ei toimi kovin pitkälle jos ajatellaan oikeata kognition toimintaa.

Tarvitsemme jotain epälineaarisuutta, ja osoittautuu että tämmöinen multimodaalinen data – eli jos siellä korkeaulotteisessa data-avaruudessa on useita tämmöisiä käsitteiden klustereita, eli havaintoaineistojoukkoja – niin niitä voidaan hyvin kuvata tällä lineaarisen lähestymistavan laajennuksella, eli juuri sillä harvakoodauksella mitä osoitimme tämmöisen itsekkään neuronin tai neuronijoukon tekevän.

Eli osa piirteistä on relevantteja vain liittyessään tiettyyn käsitteeseen ja jotkut toiset liittyessään toiseen käsitteeseen, mutta kuitenkin, esimerkiksi tämä lemmikkieläimen käsite, on relevantti puhuttaessa sekä koirasta että hevosesta, ja siinä mielessä näillä erillisillä kategorioilla voi olla myös yhteisiä piirteitä – ja siinä mielessä tämä harvakoodaus on hyvin voimakas lähestymistapa että voimme oppia näitä lemmikkieläimen piirteitä silloin kun opimme jotakin koirista, silloin kun opimme jotain hevosista, ja myös silloin kun opimme jotain kanoista – ilman että tämä kanamaisuus nyt vaikuttaisi hevoseen yhtään.

Eli ne käsitteet koira, hevonen, kana, voivat jakaa tämän yhden lemmikkieläinpiirteen tässä harvakoodauksen kehyksessä.

[1:05:55/21]

Tässä on vielä kerrattu sitä, että minkälainen tämä harvakoodaus nyt käytännössä sitten on.

Ja, tämä harvakoodautuminen on esimerkki siitä tavallaan, että kuinka tämmöiset ristiriitaiset – tai käänteiset intuitiot tulevatkin vastaan täällä kun ruvetaan tekemään tämmöistä todellisen maailman mallitusta.

Perinteisesti ajatellaan että sitä mukaa kun neuronit kytkeytyvät toisiin neuroneihin, niin sitä mukaa älykkyys kasvaa, tai on mahdollisuus enemmän – tai ekspertiisi paranee, ja niin edelleen, mutta jos pelkästään tulisi lisää kytkentöjä, niin se tarkoittaisi että kaikki muuttuisi lopulta yhdeksi tämmöiseksi möykyksi, tämmöiseksi assosiatiiviseksi möykyksi – avainpointti siinä että asiantuntija osaa erotella asiat nopeasti toisistaan, on juuri se harvakoodautuminen – eli vain osa piirteistä aktivoituu.

Eli sen sijaan, että kyse olisi asiantuntijalla siitä että on paljon kytkentöjä eri suuntiin, niin enemmänkin jossain vaiheessa näitä kytkentöjä rupeaa katkeilemaan – eli rupeaa tulemaan tätä harvakoodausta, eli vain osa tämmöisistä piirteistä on oikeasti relevantteja – vaikka usein jossakin tietyssä monimutkaisen asiantuntijuutta vaativan asian yhteydessä on joitakin häiritseviä asioita läsnä, niin asiantuntija osaa kuitenkin erottaa ne toisistaan, osaa suodattaa jotkin epärelevantit asiat sitten loppujen lopuksi kokonaan pois, näkee kirkkaasti vain ne kaikkein olennaisimmat piirteet.

[1:07:56/22]

Tässä on sitten tästä, että kuinka voidaan esimerkiksi jotakin lihasten toimintaa ehkä sitten mallintaa.

[1:08:04/23]

Käsittelimme jo tätä, tätä Haaviston Ollin diplomityötä, tuolla pari kertaa sitten, ja totesimme että emme tarvitse mitään dynaamista mallia päähän, tai aivoihin, kognitiokoneistoon, vielä sen vuoksi – vaan tämä tila, joka tämmöisessä dynaamisessa järjestelmässä, esimerkiksi tässä kävelijän tapauksessa, tarvitaan, jotta oikeassa tilanteessa osataan käyttää oikeita ohjauksia, niin sitä ei vielä tarvitse toteuttaa dynaamisena, aivojen osalta dynaamisena säätäjänä, vaan voidaan luottaa siihen että se ympäristö itse, joka on dynaaminen, se tallettaa sen järjestelmän tilan.

Jos voimme mitata kaikkien lihasten asemat kullakin hetkellä, niin silloin se lihasten asema sinänsä kertoo missä askeleen vaiheessa ollaan, eli siitä voidaan tehdä puhtaasti staattinen assosiatiivinen linkitys lihaksiin, ja sitten kun lihakset toimii, niin reaalimaailma aiheuttaa sen että lihakset siirtyvät uuteen asemaan, ja painovoima johtaa siihen että tämä konfiguraatio on sitten taas uusi ja siirrytään uuteen asemaan joka taas löytyy täältä, täältä mielestä sitten tämmöisenä assosiatiivisena kuvauksena.

[1:09:40/24]

Sitten tässä on heitto tuonne Kohosen karttojen suuntaan, että – Kohosen kartathan on hyvin erilainen lähestymistapa mielen mallittamiseen, eli on havaittu että aivokuorella on erilaisia tämmöisiä toimintoja, tai eri asiat ovat ikään kuin kartoittuneet eri kohtiin, eli lähellä toisiaan olevat asiat, ovat lähellä toisiaan myös aivoissa.

Ja jos nyt ajattelemme että näiden neuronien välillä on tämmöistä ylikuulumista, niin voimme ajatella että siinä Q-matriisissa, joka alunperin oli diagonaalinen matriisi – tarkoitti sitä että yksi neuroni vaikuttaa vain siihen omaan aktiivisuuteensa – voidaan ajatella että se diagonaalimatriisi onkin pikkuisen leveämpi, eli tämä Q-matriisi kuvaakin jonkunlaista naapuruussuhdetta neuronien välillä, eli jokin neuroni vaikuttaa ylikuulumisen vuoksi myös johonkin toiseen neuroniin, siitä seuraa se että lähellä toisiaan olevat, tämmöiset usein yhtä aikaa aktivoituvat piirteet tulevat myös lähelle toisiaan.

No, sitä on vaikea todistaa, mutta jos käytte läpi tätä SOM:n teoriaa niin huomaatte, että sitä on todisteltu erilaisilla kokeiluilla, eli tosiaan tämä kartta-ajatus näyttää monimutkaisessakin tapauksessa sieltä emergoituvan.

Mutta verrattuna tuohon Kohosen karttaan tosiaan niin tässä kyberneettisessä kehyksessä on sisäinen rakenne näillä noodeilla, mikä on aikamoinen lisäarvo kyllä, jos halutaan tehdä jotain muutakin kuin visuaalista tarkastelua, tälle kartalle.

[1:11:33/25]

No, sitten voitaisiin tarkastella että minkälaisia kytkentäkohtia on tämmöisiin kognitivistisiin teorioihin.

Jos olette kognitiotiedettä lukeneet niin tiedätte, että nimenomaan tähän kognitivistiseen vaiheeseen liittyy tämmöiset mielen toiminnan rajoitteet ja muut, esimerkiksi se toteamus että ihmisellä on tämän, tietyllä tavalla, kanavan leveyden suhteen rajoitukset.

Eli yhtä aikaa voi olla mielessä vain rajoitettu määrä asioita.

On semmoinen kuuluisa [Millerin] paperi, jossa todetaan että 7 +/- 2 on ihmismielen yhtä aikaa aktiivisena olevien asioiden maksimimäärä.

Tähän perustuvat esimerkiksi muistitekniikat, eli jos voitte jonkin mielettömän lukujonon muistaa, niin voitte muistaa sen sillä tavalla että jaatte sen pienempiin ryhmiin, joita ryhmiä on kaikkiaan sitten ehkä tämä seitsemän kappaletta – jos te näiden pienten ryhmien sisällä pystytte löytämään jonkunlaisen sisäisen rakenteen, joka taas koostuu tämmöisistä 7 +/- 2:sta alirakenteesta – esimerkiksi jonkin pitkän puhelinnumeron voi muistaa jos se koostuu joistain vaikka vuosiluvuista tai joistakin muista päivämääristä, koska silloin voimme palauttaa sen joihinkin muihin muistielementteihin alemmalla tasolla.

Tämä kognitivismi kyllä toimii, mutta se voidaan jakaa, tämä rajoite-ajattelu, tällä tavalla alemmille tasoille.

Ja nyt jos verrataan tähän kyberneettiseen kehykseen, niin tämähän hyvin toimii siinä mielessä, että jos on rajoitettu se, että kuinka monta tämmöistä harvakoodattua piirrettä yhtä aikaa on toiminnassa, niin aivan samalla tavalla on tietty määrä kytkentöjä alemmalla tasolla oleviin muistiedustuksiin, yhtä aikaa olemassa.

Eli tämä harvakoodautuminen, ja tämä kognitivistinen rajoiteajattelu on hyvin pitkälle rinnastettavissa, vaikkakin tämmöinen rinnastaminen on – vaatisi hyvin paljon semmoista problematisointia ja pohdintaa ja – sanotaan nyt että ainoastaan insinööri voi tehdä näin naurettavan rinnastuksen hyvin erilaisten asioiden välillä, ottamatta kantaa mitenkään siihen että kuinka asioita on käsitelty aikaisemmin.

Mutta tässä neokyberneettisessä kehyksessä voidaan keskittyä siihen mikä on todellakin relevanttia – ne datat, tosiasiat kyllä määrittelevät relevanttiutta omalla tavallaan, [ja] asioiden olennaisuus se on kuitenkin tärkeämpi asia kuin jotkut teorioiden nimet.

[1:14:57/26]

No, tähän asiaan tuo relevanttiutta se, että olen tehnyt yhteistyötä Pertti Saariluoman kanssa, joka on nykyisin kognitiotieteen professorina tuolla Jyväskylän yliopistossa.

Hän on tämmöisen shakki-ekspertiisin ihan maailman mitassa merkittävä tutkija.

Ja shakki on mielenkiintoinen ongelma, siinä mielessä että siinä on kognitiotieteen monia ongelmia hyvin kiteytetyssä muodossa havaittavissa.

Juuri tämä ekspertiisin ja noviisin ero on täällä hyvin semmoinen kompakti ongelma, jota voidaan sitten tutkia aivan kokeellisesti.

Tässä on esimerkki siitä, että on ollut 5000 shakkikonfiguraatiota, ja ne on opetettu sitten tämmöiseen harvakoodautuneeseen karttaan.

Tämä on hyvin yksinkertaisella tavalla koodattu tämä shakkitilanne – siinä on ollut 768-dimensioinen avaruus – yksinkertainen siinä mielessä että siinä on shakkilauta kuvattuna sillä tavalla että jokainen 64 ruudusta, sitä varten on 12-bittinen vektori, jossa kukin bitti, siinä vektorissa tarkoittaa sitä että jokin tietty nappula on siinä ruudussa, ja kun nämä bittivektorit kootaan nyt yhteen, niin siitä tulee tämä 768-dimensioinen data.

Eli kaikki shakkikonfiguraatiot voidaan yksikäsitteisesti esittää tässä kehyksessä.

Paljon laittomia tilanteita myös, mutta toiveena on juuri se, että nyt koneisto pystyy löytämään ne relevantit konfiguraatiot sieltä korkeaulotteisesta avaruudesta.

Tässä on nyt pääkomponenttimalli siitä.

Täällä on alkutilanne, ja sitä mukaa kun nappulat vähenee laudalla, niin ajaudutaan kohti tätä nollatilaa – eli yksikään bitti ei ole enää pystyssä siinä tilanteen kuvauksessa.

[1:17:08/27]

Osoittautuu, että erilaiset avaukset, esimerkiksi – erilaiset shakille tyypilliset hahmot, esimerkiksi linnoittautuminen ja muut, ne ovat tämmöisiä chunkeja, jotka tyypillisesti esiintyvät.

Nyt ei tarvitse oppia kaikkia nappuloiden sijainteja erikseen, jos on nyt 32 nappulaa – no, neljä kertaa kahdeksan nappulaa kaikkiaan – niin tämä 7 +/- 2 rajoite, aloittelijalle merkitsee sitä, että pystyy muistamaan vain muutaman nappulan sijainnin, mutta asiantuntijalla, kun nämä asiantuntijuutta vaativat chunkit on muodostuneet – juuri siinä muodossa että tietyt tämmöiset sotilasasetelmat ja linnoittautumiset, ja tietyt strategiset kuviot, avaukset, ovat omia kategorioitaan – niin hän pystyykin muistamaan hyvin pitkälle koko sen shakkilaudan loppujen lopuksi.

[1:18:24/28]

Tässä on esimerkki siitä, yksi esimerkki – eli näitä on tutkittu juuri asiantuntijoilla, näytetty tämmöistä tilannetta viisi sekuntia, pyydetty rekonstruoimaan lauta, ja nyt opetimme näitä relevantteja shakkitilanteita sille koneelle, ja näytettiin sama lauta – eli annettiin sen – ajateltiin että siinä viidessä sekunnissa se pystyy muodostamaan tämän yksitasoisen kuvauksen siitä laudasta, eli löytämään ne linkit sinne alemman tason shakkiorientoituneisiin chunkeihin.

Jos on yksi kappale ainoastaan näitä muistirepresentaatioita, eli lyhytkestoinen muisti on yhden yksikön mittainen, niin voidaan muistaa jo näin paljon nappuloita – huomaamme että siellä on paljon yksityiskohtia virheellisinä.

Sitä mukaa kun aletaan näitä hienovirityschunkeja lisätä siihen, jotka ovat lineaarisesti summautuvia, niin päästään aina vain tarkempiin.

Esimerkiksi, tyypillisesti tämä hevosen liikkuminen on semmoinen, että yksi siirto alkaa tulla enemmän tai vähemmän yhden neuronin tai yhden tämmöisen alemman tason kuvauksen esittämäksi, koska se voi vaihdella tyypillisesti kahden paikan välillä.

Mutta se mikä on kiinnostavinta, on tässä se että nämä virheet mitä tämä kuvaus tekee, ne ovat hyvin asiantuntijamaisia.

Eli tämä oli se, joka kiinnosti Pertti Saariluomaa erityisen paljon, koska tämä on seitsemällä, tai tämä on suoraan sanoen kolmella, tai viidella chunkilla tehty tämä tilanne.

Eli siellä kun vertaatte tähän oikeaan tilanteeseen niin nähdään että tämä torni on väärässä paikassa.

Alunperin se on ollut tuossa kuninkaan vieressä, nyt se onkin täällä tässä.

Tämä on hyvin semmoinen asiantuntijanomainen virhe, koska tämä torni voi olla joko tässä tai tässä.

Se ei kovin paljon vaikuta siihen että onko tämä relevantti shakkitilanne vai ei.

Tässä tietenkin täytyy muistaa se, että siinä vaiheessa kun on rekonstruoitu tätä lautaa, niin olemme hyväksyneet vain ne rekonstruktiot, jotka on saatu piirteitä summaamalla ja tekemällä sinne tämmöinen threshold, eli on tietty threshold-taso tai kynnysarvo, jonka yläpuolella olevat rekonstruktiot ainoastaan hyväksytään.

Eli siellä on tämmöisiä alemman tason mahdollisuuksia sille että mikä saattaa mallin perusteella olla jossakin ruudussa, niin niitä on hyvin paljon tietenkin, mutta tässä tietyssä tilanteessa kaikkein parhaiten on sopinut semmoinen rekonstruktio, joka on tavallaan binarisoimalla sitten tämän näköinen, kun se on projisoitu täältä 768-dimensioisesta avaruudesta takaisin tähän shakkilaudalle sitten.

[1:21:52/29]

Ja tämä on todellakin kiinnostavaa siinä mielessä, että tämä pystyy matkimaan tätä asiantuntijoiden versus eksperttien käyttäytymistä.

Voisi vielä mainita juuri vielä tämän, että toinen asia mikä Saariluomaa kiinnosti, on tämä että kun on tehty tutkimusta oikeilla shakkieksperteillä – niin tämä että shakkiekspertit pystyvät muistamaan näitä shakkitilanteita ei johdu siitä, että heillä olisi muisti parempi, koska jos nämä nappulat laitetaan satunnaiseen järjestykseen, laudalle, niin olennaisesti shakkiekspertti ei pysty muistamaan niitä nappuloiden sijainteja yhtään paremmin kuin aloittelijakaan.

Ainoastaan siinä tapauksessa että ne tilanteet ovat shakille mielekkäitä, ja jopa hyvistä peleistä – eli tämä on juuri tärkeää että shakkiekspertit opettelevat shakkia käymällä läpi hyviä pelejä, ei mitään huonoja pelejä.

Joku satunnainen pelaaja saattaa yhtäkkiä yllättää ekspertin, kun se putoaa sieltä avauskirjastosta pois.

[1:23:04/30]

No tässä on tämmöisiä lisäesimerkkejä –

[1:23:08/31]

liittyen esimerkiksi juuri siihen, kun käsiteltiin viime kerralla sitä Pyhäsalmen dataa, niin tässä on esimerkki siitä, että tosiaan asiantuntijat näkevät tälla tavalla jäykkää, märkää ja kuivaa vaahtoa, ja tämä ei ole semmoinen kategorisointi, jonka he olisivat tottuneet tekemään eksplisiittisesti, he vaan näkevät kuplapinnassa jonkun tämmöisen, enemmän tai vähemmän subsymbolisen luokituksen.

[1:23:41/32]

Mutta me nyt halusimme että nämä asiantuntijat määrittelevät näiden kuplakokojen ja läpinäkyvyyksien ja kaikkien muiden kuplapinnan nopeuden ja muiden piirteiden, näiden softsensorien tuottamien piirteiden perusteella, että mikä kuplapinta on nyt mitäkin luokkaa edustava.

Osoittautuu, että tämä meidän käsin koodattu piirteistin tuotti tietylle ajanjaksolle tämmöistä tulosta.

Siellä on välillä pitkällä aikajänteellä käynyt sillä tavalla, että on ollut enemmän jäykkää tai vähemmän jäykkää se vaahto.

Ja kun teimme aivan puhtaasti datapohjaisesti tämän saman datan oppimisen, niin huomasimme että nämä nimeämättömät harvakoodatut piirteet, ne rupesivat edustamaan todellakin näitä – ainakin jossain mielessä, tai jossain määrin – näitä asiantuntijoiden määrittämiä piirteitä.

Tämä on toinen tämmöinen hyvä koepenkki asiantuntijuudelle, koska tietyllä tavalla vaikka ne ovatkin tämmöisiä eksplikoitumattomia jossain mielessä nämä asiantuntijuusjutut – eli joku operaattori joutuu kantapään kautta oppimaan sen prosessin toiminnan, nykyisin – niin se on hyvin relevantti ongelma siis nykyisin ja luulisi, että tämä on kiinnostava ongelma siellä – tämä on nyt hyvin tutkimuksellista vielä.

Ja se mikä tässä on kiinnostavaa, on se että jos tälle datalle tehtiin suoraan pääkomponenttianalyysi, niin mitään tällaista ei oikeastaan ollut nähtävissä – tai ehkä tämä voimakkain piirre, mutta kaikki muu oli ihan puhdasta satunnaista dataa – vaikka se oli optimaalisesti, matemaattisessa mielessä optimaalisesti koodautunutta, niin siinä ei ollut näitä suoria kytkentöjä näihin eksperttien kategorioihin kuitenkaan nähtävissä enää siinä pääkomponenttikoodatussa aineistossa.

[1:25:54/33]

No, sitten tätä on kokeiltu joissain muissa sovellutuksissa –

[1:26:00/34]

tässä on nyt esimerkkinä tämmöinen –

[1:26:02/35]

tein yhdelle, tämmöiselle oikeasti haastavalle aineistolle, eli tekstidokumenteille, tätä analyysiä, eli jokainen sana mikä aineistossa esiintyi – tässä oli tämmöisiä tiedonlouhintaan liittyviä dokumentteja, tai semmoisia abstrakteja, aineistona – kaikki sanat mitkä näissä abstrakteissa esiintyivät, olivat ikään kuin entryjä tai inputteja data-avaruudessa.

Ja toivomuksena oli, että semmoiset sanat, jotka esiintyvät yhdessä paljon, ne yhdessä määrittelevät jonkunlaisen tämmöisen kategorian.

Eli tässä ympäristössä voisi sanoa, että ne yhdessä määrittelevät tämmöisen yleistetyn avainsanan, joka toivon mukaan kuvaa sitä tiettyä dokumenttia hyvin.

Kun tämä usean sanan dokumenttiabstraktin aineisto mallitettiin tämmöisellä harvakoodausmenettelyllä, osoittautui, että kun näitä piirteitä myöhemmin sitten ruvettiin tarkastelemaan, niin osoittautui että nämä tietyt harvakoodatut piirteet jossa esimerkiksi sana algoritmi oli voimakkaasti esillä, ja joku parallel, jotain distributed, ja sillä tavalla, ne olivat hyvin voimakkaasti esillä – eli anteeksi, jäi mainitsematta tämä että tämä asteikko tässä nyt kuvaa niitä runsasta 2000 sanaa mitä oli siellä aineistossa, sillä tavalla että ne ovat aakkosjärjestyksessä, eli algoritmi on täällä aikalailla alussa, ja tässä piirteessä algoritmi oli hyvin voimakkaasti edustettuna.

Eli voidaan nimetä tämä piirre ikään kuin se kuvaisi implementaatioita – tämä oli semmoinen yleistetty avainsana sen jälkeen.

Täällä on jotakin applikaatioihin liittyvää, ja täällä on metodologioihin liittyvää, algoritmeihin, päättelyyn liittyviä, ja jotkin käytettäviin liittyvät – siellä olisi tuommonen human, ja collaboration, eli yhteistoiminta ja niin edelleen.

[ Oliko tuossa mitään esikäsittelyä? ]

No, harppasin sen ohi –

[1:28:16/34]

eli tässä oli tehty tällainen niin sanottu TF-IDF prosessointi, eli käytännössä tämmöiset "the" ja "an", ne saivat hyvin matalan painon.

Tässä on juuri tämä fraktaalinen kuvaus sanojen frekvensseistä, niin niiden painot oli sitten tällä tavalla, että täällä keskivaiheissa sanojen painot ovat suurimpia, eli näiden ajateltiin olevan tämmöisiä spesifimpiä sanoja.

[1:28:45/36]

Tässä on sitten kuvattu sitä, että jos nyt halutaan tehdä ei pelkästään datan analyysiä, vaan todellakin regressiota, niin aivan sama rakenne toimii kahteen suuntaan, koska se neokyberneettisen mallin rakenne on tämmöinen symmetrinen.

Mutta tästä ei puhuta sen enempää.

[1:29:08/37]

No, näistä assosiaatioista nyt tämän verran, että jos esimerkiksi rakennamme eläimen kategorian, ja jonkin hiiren kategorian, ja hevosen kategorian vaikka, niin sen kautta että hiiri ja hevonen ovat tämän eläimen kategorian kautta kytköksissä, niin siitä seuraa se, että silloin kun hevonen on aktiivinen, tässä, niin myös eläin on aktiivinen, mutta hiiri on erittäin vähän aktiivinen.

Sen sijaan jos eläinkategoria on erityisen aktiivinen, silloin sekä hiiri että hevonen ovat kohtuullisen aktiivisia kuitenkin.

Eli eläin saa piirteensä näiden hiirten ja hevosten ominaisuuksien kautta.

[1:30:07/38]

No, nyt voitaisiin mennä vähän tämmöisiin filosofisempiin kysymyksiin jo tässä – täällä on taas Hume ja Kant mainittu.

Hume sanoi, että datassa ei ole tämmöisiä kausaliteetteja nähtävissä – kuitenkin Kant toteaa että kausalisuus on yksi perustavanlaatuisista piirteistä mitä ihmismieli rakentaa havaintojen välille, eli ihminen ei havaitse pelkkiä korrelaatioita, vaan rakentaa kausaliteetteja, eli jos kivi lentää niin ikkuna rikkoutuu.

Perinteisessä mielessä tämä on paradoksi, koska kausaliteettia ei todellakaan voida nähdä datasta, ainoastaan korrelaatioita.

Tämä on ihmismielen rakentama juttu tämä kausaliteetti.

Ehkä kuitenkin tämä kyberneettinen kehys tarjoaa meille jotain työkaluja tässä, koska muistatte että tämä itsekkäiden agenttien kehys – eli tämä neuronien toimintaperiaate, mitä oletettiin – niin sehän perustuu siihen, että sen sijaan että se olisi yksisuuntainen datan tai informaation siirtoprosessi, niin siinä on näistä neuroneista takaisinkytkentä sinne alemmalle tasolle, eli ne syövät aktiviteettia sieltä alempaa.

Eli tavallaan se, mitä nämä ylemmän tason neuronit mallittavat, on sitä alemmalla tasolla näiden neuronien aiheuttamaa muutosta, siinä alemman tason aktiviteetissa.

Tämä aktiviteetin muutos on sinänsä indusoitunut ulkoa tulleesta aktiviteetista, mutta loppujen lopuksi se kuitenkin, neuroni mallittaa sitä u-viivaa ja x-viivaa, eli omaa vaikutustaan siellä ympäristön indusoimassa data-avaruudessa.

Eli tietyllä tavalla tämä rakentaa kausaalimalleja, tämmöinen neuroni, koska se mallittaa vain omaa vaikutustaan ympäristössä.

Eli kaikki tietorakenteet ovat tässä mielessä kausaalisia – tässä tietyllä tavalla rajoitetussa mielessä kausaalisia, pohjimmalla tasolla – ja siinä mielessä voi ajatella että myös ylemmällä tasolla tämä kausaalisuusajattelu ehkä periytyy sitten.

Eli implisiittisesti mieli tietää, että mikä on syy ja mikä seuraus, koska ne neuronit sen tietävät.

[1:32:58/39]

No sitten ekspertiisistä voisi mainita tämän, että perinteinen näkemys on se, että jos on x voimassa, niin silloin jokin johtopäätös z on voimassa.

Ja jos on jokin toinen maailman tila vallalla, x1, niin silloin z1 johtopäätös on validi.

Jos on x2 niin z2 on validi.

Tämä toimii vain silloin, jos on aivan – tietämys on tämmöistä crispiä, tai tämmöistä tarkkarajaista, tämmöistä perinteistä, juuri loogista 1-0 tyyppistä – eli tietämys on tämmöistä joko-tai tyyppistä.

Mutta tiedämme että tietämys oikeasti on tämmöistä jatkumoa, eli jokin klusteri, jokin käsite, on tämmöinen pitkulainen – eli jokin, johonkin tiettyyn käsitteeseen jokin tietty aineisto kuuluu paremmin ja jokin huonommin.

Silti jokin tietty johtopäätös tehdään sen perusteella, että se jokin kategoria parhaiten sitä vastaa.

Nyt todellakin, kun teemme tämän päättelyn täällä ikään kuin parhaan sovituksen mielessä, niin sovitetaan tähän Gaussiseen malliin – jos tiedetään että x1 on voimassa, ympäröivässä maailmassa, niin kun sovitetaan tähän datajakaumaan se havainto, niin todetaan että tämä z1 onkin se sopiva johtopäätös.

Eli jos on tämmöinen jatkumo täällä x-avaruudessa, niin myös täällä johtopäätösavaruudessa pitää olla jatkumo, jotka ovat parhaalla mahdollisella tavalla tämän alla olevan jakauman mielessä sitten pääteltyjä, nämä johtopäätökset.

Tietyllä tavalla sumeata päättelyä – kuitenkin sillä tavalla, että tämä sumeus ei ole etukäteen tälle datalle tämmöinen sidottu ominaisuus, niin kuin näissä sumeissa päättelyjärjestelmissä tyypillisesti on, vaan se on semmoinen emergoituva ominaisuus myös tämä sumeus, joka seuraa alempana olevista rakenteista.

[1:35:20/40]

No sitten tämmöisestä tietämyksestä voisi todeta tämän, että kun tyypillisesti ajatellaan että tieto on perusteltu tosi uskomus, niin yksi käsite virittää kolme muuta käsitettä – tässä joudutaan todellakin tämmöiseen hermeneuttiseen kehään, joudutaan määrittelemään käsitteiden avulla tyypillisesti nämä kolme muuta käsitettä.

Niin nyt on tämä käsitteiden määrittely, on jollakin tapaa tämmöinen kylläkin hermeneuttinen, mutta koska eivät nämä kuuluvuudet ole 1-0 tyyppisiä, vaan ne ovat tämmöisiä suhteellisia, niin tämä eri asioiden virittäminen, eli totuus – tai tieto virittää totuuden, tai tieto virittää uskomuksen käsitteen, mutta uskomus virittää omalta osaltaan myös tiedon käsitteen.

Ja kun tämä pyörii tämmöinen iteratiivinen prosessi, sillä tavalla että haetaan se tasapaino näiden käsitteiden välillä, löydetään semmoinen tasapaino, hermeneuttinen tasapaino, ilman että jouduttaisiin tämmöiseen hermeneuttiseen kehään.

Eli tietyllä tavalla kun lainausmerkeissä "totuus" tehdään suhteelliseksi, se tuleekin universaaliksi.

[1:36:48/41]

No viisaudesta vähän tämmöinen viisasteleva kommentti, että se kun sanotaan että viisas ei tee niitä virheitä joihin älykäs joutuu ja joista sitten kyllä selviytyy – kun sanotaan että älykäs pystyy selviytymään ongelmista, niin viisas pystyy välttämään ne ongelmat.

Tässä on syvällisempi pointti juuri siinä mielessä, että viisas näkee etukäteen tilanteen, että tämä johtaa vaikeuksiin, eli tosiaan osaa välttää niitä tilanteita, eli ei tarvitse edes käyttää sitä älyä.

[1:37:30/42]

No sitten perinteinen ongelma – esimerkiksi silloin kun juttelemme tämän Pertti Saariluoman kanssa, niin jossakin vaiheessa päädymme aina keskustelemaan siitä, että entäs nämä tunteet, että niitä nyt ei kuitenkaan tietokoneella voi tehdä.

No ei tietenkään voikaan, tunteet ovat ihmisen ominta – johtuu siitä että ihminen on ruumiillinen olio.

Mutta voimme tässä kyberneettisessä kehyksessä palauttaa tavallaan juuri siihen, että alimmalla tasolla nämä neuronit tarttuvat siihen aktiivisuuteen mikä on tarjolla.

Eli jos esimerkiksi on kemiallista aktiivisuutta tarjolla, ne rupeaa oppimaan sitä, informaatiota.

Jos esimerkiksi on jokin adrenaliinitaso koholla, ja sitten samaan aikaan siihen kytkeytyy joitain havaintoja joistakin kummituksista, tai joistain petoeläimistä, niin nämä kytkeytyvät yhteen sillä tavalla että myöhemmin nämä pelon kokemukset – ne kytkeytyvät näihin kaikkiin karhun kanssa kohtaamisiin, tai sitten kaikkiin tämmöisiin hormonaalisiin tasoihin, myös tähän adrenaliinitasoon.

Niillä on todellakin tämmöinen hyvin fyysinen ulottuvuus tämmöisillä tunteilla, ne ovat siinä mielessä tämmöisiä alemman tason tunteita, tai alemman tason käsitteitä.

Ja sitten kun puhutaan tästä kvaliasta, niin se palautuu oikeastaan juuri tähän samaan asiaan, että kaikilla havainnoilla on tietty tämmöinen ruumiillinen ulottuvuus myös.

[1:39:13/43]

No myös tästä tietoisuudesta voi yllättäen sanoa jotakin, joka tässä kehyksessä voidaan palauttaa – tai että siitä ei ole oikeastaan paljon muuta sanottavaa, kuin mikä mahtuu yhdelle ainoalle kalvolle.

Perinteinen ajattelu on se, että tietoisuus voidaan määritellä sillä että meillä on tämä homonculus, joka tarkastelee alemman tason homonculusta, joka tarkastelee alempaa tasoa, ja loppujen lopuksi tämä palautuu siihen, että alimman tason homonculus tarkastelee sitä havaintoprosessia.

Eli me tiedämme että me tiedämme tietävämme, esimerkiksi.

Niin, koska tämä ääretön ketju tämmöisiä malleja toiminnasta on palautettavissa ikään kuin samalle tasolle, voimme myös tähän tietoisuuden ongelmaan ehkä pureutua paremmin.

Eli kun puhutaan tästä toisen kertaluvun kybernetiikasta niin tietoisuuden ongelma on se, että on äärettömännen kertaluvun kybernetiikkaa – niin kaikki ne voidaan palauttaa tähän samalle tasolle.

Tässä mielessä myös eläimet ovat jossain mielessä, jossain määrin tietoisia, koska ne, niillä on myös malli omasta toiminnastaan.

Ja todellinen tietoisuus tulee siinä vaiheessa, kun tämä ylemmän tason malli on sillä mallituksen tasolla, että se havaitsee että on mielekästä muodostaa malli jossa ympäristö ja oma itse ovat erotettuina elementteinä – niille muodostuu omat tämmöiset agenttinsa mallittamaan niitä.

Tavallaan siinä vaiheessa kun on oman tietoisuuden tai oman itsen, oman toiminnan malli, niin voidaan sanoa että järjestelmä on tietoinen.

Ainakin nämä ovat semmoisia määritelmiä mitä on käytetty tietoisuuden määrittelyyn, ilman että sillä on kovin paljon ollut konkreettista sisältöä perinteisesti.

[1:41:23/44]

No, sitten tätä tietoisuutta voi tietenkin jatkaa ylöspäin, eli jos ymmärrämme mitä toiset ajattelevat, saumattomasti, niin meillä voi muodostua ylemmän tason tietoisuus, eli jokin tämmöinen systeemiäly, tai älykkäiden organisaatioiden taso.

Näistä asioista nyt on sitten aivan omat kurssinsa täällä.

[1:41:51/45]

Tässä olisi oikeastaan vielä aika paljon asiaa, mutta joudumme katkaisemaan jossain vaiheessa.

Mutta voidaan kuitenkin todeta, että se että on tosiaan monella tasolla näitä, nyt näitä harvakoodautuneita elementtejä, niin se tuo jonkunlaista lisäarvoa tähän informaation käsittelyyn.

Jos ajatellaan, että kaikki tieto mikä tulee sensoreista sisään, on logaritmista – esimerkiksi näködata, intensiteetit ovat tietyllä tavalla logaritmisia, kuuloaistimus on logaritminen.

Niin silloin voidaan ajatella, että näiden logaritmisten havaintojen summaaminen on sama kuin niiden alkuperäisten signaalien tulo.

Tietyllä tavalla nyt tämmöisten yhdistäminen summamuodossa on tulomuotoista yhdistämistä alkuperäisisille signaaleille – eli voidaan puhua tämmöisistä AND-operaatioista, jos ne ovat riittävän riippumattomia toisistaan ne inputit.

No, kyberneettinen malli rakentaa mahdollisimman rippumattomia, tai hakee niitä riippumattomia komponentteja, että ehkä näin voidaan olettaa.

No mitä tämä harvakoodautuminen tekee?

Se aiheuttaa sen, että kun on vaihtoehtoisesti joko nämä tai nämä tulkinnat, niin se on tämmöinen XOR-tyyppinen konnektiivi tavallaan.

Eli tämä on tämmöinen AND-XOR graafi mitä tämmöinen neuronien ketju näille logaritmisille signaaleille tekee.

[1:43:29/46]

[1:43:31/47]

Eli käytännössä tehdään tämmöistä mikstuurimallien mikstuuria, ja sillä voi ruveta selittämään sitä, että miten ihminen ehkä havaitsee esimerkiksi pöydän.

Alimmalla tasolla on pikseleiden korrelaatioita – ne tullaan tulkitsemaan viivaelementteinä, tai sitten tankoina ja niin edelleen – ja kun on neljä kappaletta tämmöisiä tankoja, ja samaan aikaan esiintyy jokin tämmöinen levy, niin sillä on tietty relevanssi, tai tietty uskottavuus, että se onkin jo pöytä.

Tässä tulee ympäristöstä takaisinkytkentää, että jos lähellä on tuoli, tai jos on vielä korkeammalla tasolla ymmärrys että tämä on luokkahuone vaikka, tai kokoushuone, niin silloin sieltä ylempää tulee lisärelevanssia tämän pöytätulkinnan kannalta – ja lopulta kun on päästy tähän tasapainoon näiden käsitteiden tulkinnan kannalta niin voidaan olettaa, että tämä pöytätulkinta on voittanut kaikki vaihtoehtoiset tulkinnat, eli se XOR rakenne on ajautunut johonkin tiettyyn tulkintaan.

Ja tätä voi ehkä käyttää jopa, jonkunlaisen kielen, tämmöisen syvärakenteen mallina.

[1:44:43/48]

[1:44:44/49]

[1:44:45/50]

[1:44:50/51]

No, tästä kyberneettisestä semantiikasta haluaisin jonkun verran vielä mainita.

Koska kun rakennamme tämmöisiä monitasoisia malleja, niin tietenkin voidaan ruveta miettimään että miten voidaan taata se, että meillä on kaikki olennainen tieto mukana siinä datassa, että voimme saada rakennetuksi mielekkään mallin, eli jos ruvetaan ihmistä mallintamaan vaikka, niin – ihmisen mieltä – niin kuinka paljon pitää niitä inputteja ottaa, jotta saadaan uskottavat tämmöiset attraktorit aikaiseksi.

Että tavallaan tässä rajoitetussa avaruudessa löydetään samat attraktorit, kuin mitkä mieli löytää, silloin kun se on siellä laajemmassa avaruudessa.

No, voidaan lähteä siitä, että jotta tämä kyberneettinen koneisto pystyisi mallittamaan jotain alemman tason kyberneettisiä järjestelmiä – eli tämä ketju näitä kyberneettisiä neuroneita muodostaa alemman tason kyberneettisestä mallista mallin, ja silloin jotta voitaisiin muodostaa kyberneettiselle mallille malli, täytyy jollakin tavalla se olennainen osa, tai olennainen asia, eli se tasapaino siellä neuronien joukossa, pystyä mallittamaan.

No, ei pystytä pelkästä datasta näkemään tasapainoa, mutta sen sijaan, jos on nämä voimat mukana, voimat jotka ajavat eteenpäin sitä muutosta, siellä järjestelmässä – eli tavallaan tämmöiset vuot pystytään mallittamaan, niin silloin pystytään myös se tasapainossa seuraava virtaus mallittamaan.

Ja jos pystytään tämä virtaus tosiaan mallittamaan, niin pystytään mallittamaan myös ne voimat, joilla pystytään tämä virtaus estämään, eli vastavoimat.

Eli jos nämä voimat tietyssä tilanteessa saadaan mallitetuiksi, niin silloin pystytään se tasapaino mallittamaan.

Tämä tarkastelu on siinä mielessä mielekästä, että pääsemme tässä vähän ylemmälle tasolle siinä, että mitä oikeasti halutaan mallintaa.

[1:47:10/52]

Loppujen lopuksi halutaan mallittaa tämmöisiä gradientteja siellä, että miten neuronit muuttuvat – eli ne kuvaavat sitä tämmöistä virtausta että mihin ollaan menossa.

Laajensin tosiaan tätä shakkipeliesimerkkiä tällä tavalla, että kun se esimerkki mitä käsittelimme silloin aikaisemmin, luennon alussa, niin se oli ainoastaan tämmöistä staattisten tilanteiden mallitusta – se ei millään tavalla ottanut kantaa siihen, että kuinka kannattaisi pelata.

Shakissa on nimenomaan kiinnostava ongelma se, että miten mieli, tai asiantuntijan mieli, löytää ne kuumat pisteet, tämmöiset hot spotit, tässä tapauksessa siellä shakkilaudalla, että missä tapahtuu jotain kiinnostavaa – niin ne ovat juuri niitä pisteitä johon shakkipelin virtaus, eli se pelin vuo, kulkee – jos on nähty samanlaisia tilanteita, niin se mihin suuntaan se virtaa voimakkaimmin, eri tilanteiden välillä, niin juuri se virtaus kuvaa sitä kiinnostavaa pistettä, eli tässä tapauksessa sitä voidaan näillä gradienteilla kuvata.

Kun nyt mallitettiin tämän shakkitilanteen ohella tämä tämän tilanteen ja seuraavan tilanteen ero, niin nähtiin että se rupesi todellakin mallintamaan näitä hot spotteja, eli se rupesi väittämään että okei, tässä tilanteessa todennäköisesti kuningatar siirtyy tuosta ruudusta tuohon ruutuun – mikä on ihan järkevä tilanne sinänsä.

Mutta totuus olikin se, että se olikin tämä torni joka oli siirtynyt toiseen paikkaan.

Tässä oli gradientti toteutettu ihan sillä tavalla, että kahdesta peräkkäisestä binaarisesta esitystavasta oli vähennetty toisensa, jolloin shakkilaudalle saattaa muodostua negatiivisia inputteja, tai tämmöisiä miinusmerkkisiä nappuloita – eli niitä miinusmerkkisiä nappuloita tässä esittävät juuri nämä väärinpäin olevat nappulat.

[1:49:23/53]

No, sitten näitä gradienttipiirteitä, niiden avulla voidaan ruveta tietyllä tavalla kuvaamaan tämmöisiä projektioita siitä uskottavuusavaruudesta – mutta harppaan tämän yli.

[1:49:36/54]

Ja tietyllä tavalla jos ruvetaankin mallittamaan peräkkäisiä tämmöisiä gradientteja, niin silloin ruvetaan säätämään näitä gradientteja pois, niin ruvetaan tekemään tämmöistä – tämmöiset muutokset yritetään säätää pois.

Eli pitkällä aikajänteellä kaikki korkeimmatkin derivaatat menevät nolliksi, eli pyritään maailma muuttamaan staattiseksi, eli käytännössä termodynaamiseen tasapainoon.

Tähän palataan viimeisellä kerralla edelleen.

[1:50:18/55]

No, se kun – harppaan tässä – se kun ruvetaan näitä gradientteja mallittamaan, niin silloin huomataan että tämä on hyvin iso ongelma, että käytännössä muutos ympäröivässä maailmassa – joudumme käytännössä ennustamaan sitä tulevaa tilaa, jotta tällä hetkellä voisimme tämän tilan gradienttia mallittaa, ja siitä seuraa se, että korkeammalla tasolla tämä implisiittinen säätö, mitä nämä neuronit tekevät, niin se muuttuu eksplisiittiseksi säädöksi,

[1:50:53/56]

mitä esimerkiksi tämä kissa tekee tässä kun se ottaa hiirtä kiinni, tai dinosaurus kun se kääntää päänsä johonkin havaintomuutoksen suuntaan näkökentässä.

[1:51:04/57]

Siitä seuraa yhä vain korkeamman tason tämmöistä ennustamista, ja siitä tämmöisiä suunnitteluja ja siitä jopa tämmöistä mielikuvitusta sitten, eli ruvetaan omassa maailmassa rakentamaan erilaisia vaihtoehtoisia skenaarioita.

Kaikki tämä tukee sitä, että pystymme rakentamaan parempia malleja, tai säätämään ympäristöä paremmin.

Täällä ylemmällä tasolla se ei enää näytä ollenkaan säätöongelmalta.

[1:51:35/58]

No sitten palataan ensi kerralla siihen, että onko loppujen lopuksi kuitenkaan tällainen datan suodatus loppujen lopuksi, onko se uskottava malli tietoisuudelle, kun loppujen lopuksi kaikkein kiinnostavimpia asioita ovat juuri tämmöiset mielikuvitukseen liittyvät, tai tämmöiset villit assosiaatiot – aivan eri asiat yhtäkkiä, ne pystytäänkin kytkemään toisiinsa, ikään kuin pystytään tekemään tämmöisiä puu-transformaatioita neuraalisten rakenteiden välille.

Jos haluamme oikeasti uskottavalla tavalla kognitiota mallintaa, meidän täytyy jollain tavalla pystyä vastaamaan myös tämmöisiin, tai antaa jotakin ideaa siihen suuntaan – ja ensi kerralla tarkastellaan sitä.

Sitten tässä on toinen asia tämä, että mitä voidaan sanoa tämmöisistä,

[1:52:26/59]

tämmöisistä – sitten että kuinka tätä assosiatiivista, kuinka siellä olevia aktiivisuuksia voidaan purkaa takaisin kielelliseksi – se on kyllä ongelma mihin ei nyt oikeastaan voida tässä yhteydessä, tai ei ole edes aikaa, paneutua.

[1:52:47/60]

Mutta toteamme kuitenkin että hyvin samat ongelmat ovat täällä kognitiivisella puolella ja biologisella puolella,

[1:52:53/61]

ja ehkä jossakin vaiheessa voidaan todeta, että tietyllä tavalla samat menetelmät soveltuvat tämmöiseen biologisen tai geneettisen tiedon käsittelyyn, kuin mitä meillä nyt on ymmärrystä kognitiivisten järjestelmien toiminnasta.

No, tämä on vain tämmöisenä heittona, ja viittauksena siihen,

[1:53:13/62]

että tämmöiset analogiat voivat olla arvokkaita – eli ensi kerralla tarkastellaan analogioita.

No niin, kiitos.

...taas, vaikka meni jatkoajalle.

[1:53:32/-]