Forside
  - Arkiv
  - Arkiv Italia
  - Arkiv Canada

Jobb
NTNU-side

Gammelt
Meg
Bilder
Oppskrifter
Silkeføre
Mamma og pappa
Historien
Venner
Trening


Fotografering
Portefølje
Reality show


Anders Lyngvi Fougner's Facebook profile



View Anders Fougner's profile on LinkedIn

Sist endret | 14. August 2016 00:11:18
Treff siden 28.08.2002 | 7288 | Login
Menneske og maskin
Menneske og maskin

Anders Fougner, våren 2002

Examen philosophicum modul 2 (EXS002)
Oppgave nr 4
“Mennesket – en maskin?”

 Today some researchers believe that cyborgs will be possible within 50 years, or at least that humans will have so many manufactured parts as to be virtually indistinguishable from cyborgs. Machines might be so assimilated to us – or we to them – as to raise the most fundamental questions. As technology fills you up with synthetic parts, at what point do you cease to be fully human? One quarter? One third? What part of us is irreplaceably human, such that if we augmented it with technology we would become some other kind of being?” 
     (McGrath, P (2001) Building a Better Human, Newsweek. Spec. Ed. Dec 2000 – Febr 2001)

Oppgave: 

· Drøft om maskiner kan tenke OG om mennesket fungerer som en maskin ved å hente mer informasjon om den debatten McGraths innlegg er en del av. Presenter flere sider ved denne debatten.

· Gjør rede for hvordan det mekanistiske og det humanistiske menneskesyn er relevant i denne sammenhengen.


Innhold

1      Innledning.. 3

2      Kan maskiner tenke?. 4

2.1       Fins tenkende maskiner allerede?. 4

2.2       Sterk og svak kunstig intelligens. 5

2.3       Turing-testen.. 5

2.4       Det kinesiske rom... 5

2.5       Sjakk.. 6

3      Fungerer mennesket som en maskin?. 7

3.1       Menneskesyn.. 7

(3.1.1        Det humanistiske menneskesyn).. 7

(3.1.2        Det mekanistiske menneskesyn).. 7

3.2       Mennesket blir en maskin.. 8

3.3       Kyborger.. 8

4      Oppsummering.. 9

5      Referanser.. 10

5.1       Obligatorisk pensum... 10

5.2       Selvvalgt pensum... 10

 


1         Innledning

 

Oppgaven refererer til et innlegg. Innlegget tar opp et interessant tema; hvordan vi kan skille maskiner fra mennesker - eventuelt hvordan vi kan skille ut mennesker fra alle maskinene i dagens samfunn. Innlegget er en del av en debatt som stadig øker i omfang, men som kanskje kan ha startet allerede på 1800-tallet, da de første tankene om “maskiner som erstatning for mennesker” oppsto... Spesielt opphetet har debatten vært de siste 20 årene. Vi kan kanskje si det slik at dersom maskiner kan tenke, eller dersom menneskene fungerer som maskiner – da vil mennesker og maskiner være umulig å skille.

Min oppgave er derfor å drøfte hvorvidt maskiner kan tenke. Jeg vil først ta for meg dette ved hjelp av eksempler, deretter ved hjelp av teoretiske eksperimenter. Dette spørsmålet er avhengig av hvilket menneskesyn vi har, og dette vil jeg også ta opp, samtidig som jeg drøfter hvilke følger dette vil ha for hvordan vi lager maskiner. Et viktig spørsmål er også hvordan vårt menneskesyn påvirkes av slik teknologi. Med dette følger en rekke etiske dilemma, men jeg vil ikke gå nærmere inn på det i denne oppgaven.

Teknikkene for å lage tenkende maskiner, med nevrale nettverk og andre nye teknologier, vil jeg ikke gå så nøye inn på i denne oppgaven. Bruksområder og anvendelser av teknologien legger jeg heller ikke stor vekt på.


2         Kan maskiner tenke?

Dette spørsmålet har til dags dato ingen klart å avgjøre en gang for alle, men mange har prøvd å finne svaret. Det som gjør det så vanskelig, er trolig at ingen helt vet hva det betyr å tenke og føle, og at folk har ulike oppfatninger av hva en maskin egentlig er. Debatten er avhengig av hvordan man definerer tenkning og maskiner. Derfor har jeg prøvd å finne fram til noen definisjoner av begrepene.

Aschehoug og Gyldendals Store norske leksikon definerer tenkning som

“den indre prosess som gjør det mulig å arbeide med mentalt representert informasjon, dvs sanseopplevelser, forestillingsbilder, følelser eller verbale symboler” (1980: bind 11:568)

Dette var en definisjon innen psykologi. De har samtidig gitt noen definisjoner innen filosofi:

“en indre dialog med seg selv (Platon), en slags jevnføring av bevissthetsinnhold eller “ideer” (Locke, Hume), en form for kalkyle eller regning (Leibniz), bearbeidelse av sanseinntrykk ved hjelp av begreper (Kant), en symbolfunksjon ved hjelp av tegn som representerer noe annet enn seg selv (Cassirer), en virksomhet som er mer eller mindre identisk med fornuftig og hensiktsmessig språkbruk (et utbredt synspunkt i dag).” (1980: bind 11:568)

Descartes hadde en spennende definisjon på tenkning:

“Noe tenkende, hva er det? Jo, det er noe som tviler, forstår, benekter, som vil, som ikke vil, som også innbiller seg og som fornemmer.” (Dybvig 2000:148)

Ifølge disse definisjonene er både matematikk, symbolbruk og språkbruk sentrale for forståelse av tenkning – men også forståelsen av symboler og språk er viktig.

Om vi også kan skille mellom tenkning og menneskelig tenkning, er et annet problem. Kan avanserte maskiner sies å tenke, men ikke tenke menneskelig? Dette kommer jeg tilbake til i kap. 2.2.

Maskin er også vanskelig å definere. Originalt ble det ifølge det samme leksikonet definert som

“en mekanisk innretning hvor mekanisk energi kan overføres til nyttig arbeid på en lettere, raskere eller mer hensiktsmessig måte enn uten bruk av en maskin (...) – Alle maskiner, hvor kompliserte de enn er, kan bygges opp av seks enkle maskiner, nemlig: vektstang, talje, hjul med aksel, skråplan, kile og skrue.” (1980: bind 8:134)

Da en stor del av debatten også inkluderer f.eks. datamaskiner eller såkalte “nevrale nettverk” (en metode basert på etterlikninger av hjernens nevroner) som maskiner, velger jeg også å ta med dette i min oppgave. Jeg inkluderer alle kunstige innretninger som er i stand til å utføre oppgaver. Dette omfatter alt av regnemaskiner, datamaskiner, kunstige kroppsdeler, motorer etc., og de kan være både hånddrevne, elektriske eller mekaniske.

2.1         Fins tenkende maskiner allerede?

Det er stadig diskusjoner om hvorvidt maskiner vil kunne tenke i framtida, eller hvorvidt de teoretisk sett skal kunne tenke. Det er imidlertid en viss sjanse for at vi allerede kan ha funnet opp tenkende maskiner, men at vi “overser” det når vi har blitt vant til dem. Vi er opptatt av roboter – men kanskje fins det andre typer maskiner som er langt mer “tenkende”?

·              Avanserte søkesystemer på internett benytter i dag AI-forskere (AI = Artificial Intelligence) for å finne fram til gode søkesystemer. Det avanserte søkesystemet FlipDog, som blir brukt til jobbsøking, har blant annet en form for læringsevne/erfaringsevne. Ved å fokusere på ordstillinger framfor rein grammatikk kan den f.eks. skilne mellom “du må reise til New York” og “send søknaden din til New York”, samtidig som systemet virker på svært mange språk kun ved hjelp av små endringer. (Kahn 2002: 76)

·              På flyplasser trengs det svært avanserte datasystemer for å koordinere all trafikk. Et nytt system har fått en “medfødt læreevne”; en form for naturlig utvalg av hvilke løsninger som fungerer tryggest og mest effektivt. Programmet kan holde styr på langt flere variabler enn et menneske, mens det likevel finner løsningene mye raskere. (Kahn 2002: 75)

·              I moderne dataspill benyttes AI-forskere for å gi monstre og andre vesener personlighet og menneskelige egenskaper. Det er i praksis umulig å skilne et menneskestyrt vesen fra et datastyrt vesen i typiske skytespill som Unreal Tournament eller Halo. I spillet Black & White skal spilleren leke Gud og styre en verden rundt et monster, for deretter å se hvordan monsteret oppfører seg. Monstrenes kreative evner er fascinerende. En spiller forteller om sitt monster (en ape) at han har gitt apen en evne til å helbrede andre. Da apen den ikke fant noen å hjelpe, ble den så frustrert og oppgitt at den til slutt plukket opp og kastet en fyr rett i fjellveggen så han ble stygt skadet. Deretter kunne apen helbrede noen igjen, og apen så visstnok svært fornøyd ut etterpå... (Johnson 2002: 80)

·              I det siste har også vesener i dataspill fått en slags flokkfølelse. Tidligere var det slik at dersom 20 vesener skulle passere over en åpen plass, gikk enten alle rett bak hverandre i rett linje over plassen, eller så gikk de på kryss og tvers i hver sin lille kø. I GameCube-spillet Pikmin kan du nå se at de samles i grupper, som i en liten barneskoleklasse, og at de går ulike veier. Noen går kanskje også helt alene og vingler litt mer enn de andre, og da kan det være en annen som kommer tilbake og hjelper ham videre. Slike egenskaper er svært vanskelig å simulere. (Johnson 2002: 81)

 

På den annen side vet vi om mange områder der dagens maskiner ikke kan måle seg med mennesker. Et enkelt eksempel er en maskin som skal observere et bilde av ansiktet til en person og avgjøre hvilket kjønn denne personen har. En slik maskin kan vi lage i dag - men dersom personen for eksempel trer en pose over hodet, vil ikke maskinen være i stand til å avgjøre kjønnet. Et menneske vil kunne se på posen, og om det viser seg å være en pose fra Hennes&Mauritz, kan mennesket ha en mening om at det er større sannsynlighet for at det er en kvinne enn en mann. Et slikt resonnement krever intuisjon, fantasi og kreativitet – en egenskap som er svært vanskelig å gjenskape med en maskin. Vil vi kunne klare dette i framtida?

2.2         Sterk og svak kunstig intelligens

John R. Searle, som lanserte “det kinesiske rommet” (kap. 2.4), definerte to ulike typer kunstig intelligens.

Sterk kunstig intelligens betyr at en datamaskin med riktig program vil kunne tenke. Dette betyr med andre ord at hardwaren (datamaskinen) kan være en hvilken som helst datamaskin, for det er kun softwaren (programmet) som avgjør om maskinen kan tenke. Med en mekanistisk menneskeoppfatning (dette kommer jeg tilbake til) vil vi kunne se på kroppen/hjernen som hardware og “human mind” (tankene, sjela etc.) som software. (Salo 1997)

Svak kunstig intelligens betyr til gjengjeld at maskiner bare kan simulere menneskets måte å tenke på. (Magnussen 2002-I: 16)

Det kinesiske rommet er et argument mot at sterk kunstig intelligens finnes, mens Turing-testen (kap. 2.3) er et argument for at svak kunstig intelligens finnes...

 

2.3         Turing-testen

Alan Turing, en britisk matematiker, lanserte en test for å finne ut om maskiner kan tenke. Kort fortalt går den ut på at menneskene A og B er koblet til hverandre med kommunikasjon uten ansiktskontakt (det kan for eksempel være språk skrevet på en PC, i stedet for tale eller håndskrift). Deretter byttes B ut med en maskin, på et tilfeldig tidspunkt. Dersom A ikke klarer å oppdage dette, uansett hvilket spørsmål han/hun stiller, hevder Turing at maskinen må kunne sies å være i stand til menneskelig tenkning. (Magnussen 2002-I: 14)

John E. Searle kritiserte dette, da han hevdet at dette ikke nødvendigvis var menneskelig tenkning. En kunne til nød hevde at det var tenkning – men heller ikke dette var påvist. Det kunne bare bekreftes gjennom Turing-testen. Deretter kom Searle på 80-tallet med sitt argument mot all sterk kunstig intelligens; det kinesiske rom.

 

2.4         Det kinesiske rom

Searles argument er et tankeeksperiment.

I første omgang var idéen å konstruere en maskin som aldri ville kunne tenke, uansett hvilket program du gir den. Dersom denne maskinen eksisterer, er konklusjonen at sterk kunstig intelligens ikke kan eksistere, siden sterk kunstig intelligens betyr at alle maskiner vil kunne tenke med et riktig program.

Searles forslag var å konstruere denne maskinen i våre tanker. Du skal tenke at du selv er maskinen, for da kan du selv avgjøre om du faktisk er i stand til å tenke. Du er i et rom med to sprekker, og inn gjennom en sprekk leverer noen deg en lapp med kinesiske tegn som du ikke vet hva betyr. For deg er de helt meningsløse, og du vet egentlig ikke om det er et språk eller noe annet. Deretter bruker du en regelbok til å sette sammen andre kinesiske tegn som du leverer ut gjennom andre sprekken. Du imiterer altså en maskin, der du er prosessoren og regelboka er programmet – og det er godt mulig at du klarer å gi meningsfylte svar ut, dersom regelboka er riktig konstruert/programmert. Du vil altså kunne bestå Turing-testen. Problemet er bare at du overhodet ikke har forstått noe, du kan ikke kinesisk, og du har ikke tenkt. Du har bare følgt regler. Dette er også helt uavhengig av hvordan regelboka di er programmert. Med andre ord kan du kanskje si at du har svak kunstig intelligens, men ikke forståelse, menneskelig tenkning eller sterk kunstig intelligens. (Salo 1997)

Siden 1980 har mange argumentert mot Searles syn, selv om han også har mange tilhengere. Motstandere har foreslått å simulere en maskin på bakgrunn av et menneske, ved å gjenskape hvert eneste nevron i hjernen (såkalte “nevrale nettverk”). Da ville vi teoretisk sett kunne få en robot som oppfører seg nøyaktig som oss. Ifølge Searle har vi da simulert hjernen – ikke tankene – og der ligger problemet. Roboten vil bestå Turing-testen; men den har fortsatt ikke tenkt... (Salo 1997)

Det var imidlertid noe Searle ikke hadde tenkt på: Personen inne i det kinesiske rommet kunne ikke forstå kinesisk – men kanskje hjernen kunne det? Vi kan nemlig ikke vite hva som skjuler seg i en hjerne. En persons oppførsel er ikke noe bevis for hvordan hjernen fungerer eller hva slags informasjon som ligger skjult i hjernen. En hjerne er ikke i teorien nødvendigvis koblet til én person, den kan f.eks. inneholde flere “personligheter”, slik at om du ikke forstår kinesisk, kan kanskje hjernen forstå det... (Salo 1997)

Et spennende argument går samtidig på forholdet mellom “hjernen” i PC’en og dens omgivelser. Hvis personen i det kinesiske rom bryter seg ut av rommet og lærer kinesisk, hva skjer da? Kanskje kan vi si at dette er intelligens. Det ligger jo i menneskets natur å bryte seg ut dersom en blir innestengt i et rom. De kausale forholdene mellom personen og omgivelsene blir forandret, og dette åpner for læringsevnen, noe essensielt. Om noe tilsvarende kan skje i maskinenes verden, kan vi ikke vite noe om. Det høres litt søkt, men det betyr at vi må forutsette at det kan skje – og da holder ikke det kinesiske rommet mål. (Salo 1997)

Om John R. Searle har funnet noe svar på dette argumentet vet jeg ikke, men diskusjonen er nok ikke slutt.

2.5         Sjakk

En tredje test for om maskiner kan tenke, er å teste om den kan spille sjakk. Dette ble tidlig foreslått, og allerede i 1770 påsto en mann ved navn Wolfgang von Kempelen at han hadde klart å lage en slik maskin – kun ved hjelp av tannhjul og mekaniske komponenter. Over kabinettet var en dukke som kunne flytte brikkene rundt, og maskinen ble kalt The Turk. Ifølge den noe tvilsomme historien har denne maskinen til og med slått både Napoleon og Benjamin Franklin i sjakk, og da Napoleon prøvde å jukse, feide maskinen alle brikkene ned på gulvet. Til slutt ble maskinen brent i 1854. (Standage 2002)

Enten var maskinen kun juks, med en person gjemt inni eller med snorer fra taket, eller så er deler av historien oppspinn. Men selve tanken på å lage en maskin som kan spille sjakk; den levde lenge. Helt til IBM faktisk klarte det i 1997.

Maskinen Deep Blue slo den russiske sjakk-verdensmesteren Gary Kasparov ved å beregne 200 millioner posisjoner og mønstre i sekundet. (Magnussen 2002-I: 17) Evnen til å gjenkjenne mønstre er svært viktig i sjakk (kanskje viktigere enn f.eks. IQ), og dette klarte maskinen mesterlig. Samtidig innrømmet Kasparov at maskinen viste menneskelige trekk i form av å prøve å “lure” mesteren, og den klarte også å avsløre Kasparovs forsøk på å spille irrasjonelt. (OnLine Newshour 1997)

Spørsmålet er om maskinen tenkte. Tenkte den på samme måte som Kasparov? Både maskinen og Kasparov tenker flere trekk framover, og de husker så mange kamper at de kan legge strategier ut fra dette. Men selve tenkningen var trolig forskjellig. Prosessene i maskinen og i Kasparovs hjerne var nok ikke helt de samme. Maskinen vant, så den tenkte best; men kanskje ikke menneskelig? Det kan være snakk om svak kunstig intelligens etter Searles definisjoner; altså en maskin som tilsynelatende tenker som et menneske, men uten at vi vet hvordan mennesker tenker, kan vi ikke si at de tenkte på samme måte.


3         Fungerer mennesket som en maskin?

Ingen vet med sikkerhet hvordan et menneske fungerer. Vi vet stort sett hvordan hver enkelt kroppsdel fungerer, kanskje med unntak av hjernen, og vi vet også endel om hvordan delene er sammensatt og hvordan de samarbeider. Vi vet imidlertid lite om hvordan f.eks. tankene våre fungerer. Hvordan oppstår de? Hva er egentlig liv? Hva er meningen med å leve? Alle mennesker har en mening om dette – og stort sett er de forskjellige.

3.1         Menneskesyn

Hva er et menneskesyn? I denne oppgaven konsentrerer jeg meg om den delen som går direkte på hvordan mennesket fungerer; hvilken rolle vi har og etter hvilke prinsipper vi lever og tenker. For å forenkle har vi prøvd å dele inn menneskesynet i ulike typer. Vi må imidlertid ikke glemme at vi ofte har ulike menneskesyn i ulike situasjoner. Mange er religiøse og tror på sjelen og ånden, mens de ellers i livet kun ser på mennesket som en maskin.

3.1.1        Det humanistiske menneskesyn

Det humanistiske menneskesynet vektlegger følelser og det naturlige. Det omfatter tanker, opplevelser, bevissthet, intuisjon; egenskaper som vi hittil ikke har funnet hos for eksempel maskiner. Da humanvitenskapene blomstret i starten av 1800-tallet, ble målet å prøve å “forstå menneskene ved å tolke uttrykkene deres.” (Dybvig 2000: 351)

Humanistene forkastet altså tanken om å forklare all atferd ut fra årsakssammenhenger og fysiske lover. Det måtte finnes noe mer; en bevissthet, sjel eller ånd; noe som i utgangspunktet skiller oss fra maskiner (og dyr, ifølge endel filosofer). For å forstå dette må vi tolke menneskenes uttrykk, og da kan det være naturlig å se på uttrykk som språk, kunst, litteratur og musikk. (Dybvig 2000: 358)

Et humanistisk menneskesyn innebærer en tanke om noe særegent for mennesker; og en innser at en ikke helt vet hva dette egentlig er. Det vil også være helt umulig å gjenskape disse egenskapene på en kunstig måte i en maskin. En maskin må i utgangspunktet følge de fysiske lovene, og det er nok lite sannsynlig at de ikke vil fortsette med det i framtida. Humanistene er derfor generelt skeptiske til kunstig intelligens.

Likevel fins det endel humanister som åpner for at svak kunstig intelligens teoretisk sett kan finnes. Om vi ikke kan få maskinene til å tenke, føle og ha intuisjon som et ekte menneske – så går det kanskje an å lage en maskin som gir inntrykk av å ha slike egenskaper – og kanskje vil den klare å overbevise oss om at den virkelig har det. Humanistene vil nok være vanskeligere å overbevise, men de kan jo ha like stor nytte av kunstig intelligens likevel...

3.1.2        Det mekanistiske menneskesyn

Descartes (1596-1950) representerte et nytt syn på mennesket og dets natur. Som fysiker og matematiker så han på biologiske prosesser på samme måte som han så på andre fysiske fenomener. Alt kan forklares ut fra de fysiske lover og innlysende sannheter. Alt har en årsak. (Dybvig 2000:141,155)

Descartes hevdet at hele biologien dreier seg om kompliserte maskiner, og at de alle følger de mekaniske lovene som resten av naturen må følge. Dyrene er komplekse maskiner uten bevisshet og følelser; de fungerer som automater. De er styrt av reflekser. Når det gjelder menneskene er han imidlertid av en annen oppfatning: vi er todelte. Dette synet kalles dualisme. Han mener at vi har en bevisshet (res cogitans) og en materiell del (res extensa) som arbeider sammen. Kroppen tilhører res extensa og kan derfor betraktes som en maskin. Bevisstheten har derimot ingen utstrekning; den kan ikke deles opp, og da må den ikke nødvendigvis følge de samme lovene som den materielle delen. Derfor kan vi ha en fri vilje. Descartes har altså ikke et fullstendig mekanistisk menneskesyn. (Dybvig 2000:155-158)

Noe senere kom mekaniseringen også av psykologien. Tanken om å lage maskiner med hjernen som modell kom tidlig. Fagfeltet kybernetikk, som oppsto på 1930-tallet, prøver å beskrive maskiner og organismer på samme måte ved hjelp av logikk og matematikk. Dette ble også videreført til å beskrive hjernen og det mentale på samme måte. (Magnussen 2002-I:9)

Ofte har mekaniske prosesser blitt brukt som metaforer for hjernearbeid. I tegneserier har lyspærer og tannhjul representert idéer og tenkning. På 1800-tallet ble dampmaskinen brukt som metafor for mennesket, og på 1900-tallet har regnemaskiner og datamaskiner tatt over som modell for tenkning. Ifølge Jef Raskin kan den neste metaforen bli Internett som representant for nettverket i hjernen. (Magnussen 2002-I:11)

I dag har mange et mekanistisk menneskesyn; ihvertfall i enkelte situasjoner. Grunnlaget for dette er tanken om at mennesket kun er bygd opp av fysiske deler som virker sammen etter fysiske lover. Hvis det er slik kan vi beskrive mennesker og maskiner med de samme begrepene, og da innebærer det at vi teoretisk sett skal kunne bygge en maskin som tenker som et menneske. Om vi da bør bygge den etter modell av mennesket, eller heller se nye veier og bygge noe som er mennesket overlegent, er et etisk dilemma.

Einstein fortalte at han prøvde å tenke som et barn da han fant opp relativitetsteorien. Kanskje bør vi bruke et kreativt barn som utgangspunkt? (McGrath 2001:57)

3.2         Mennesket blir en maskin

Sherry Turkle er sosialpsykolog ved Massachusetts Institute of Technology og har forsket på robot-dukker. Dukka “My Real Baby” ble tilgjengelig i 1995 og skal ha svært gode etterlikninger av menneskelige trekk. Den har hundrevis av ansiktsuttrykk som den tilpasser til hvilken situasjon den er i og ved hjelp av sensorer kan den “føle” akkurat hva du gjør med den. Vi får et inntrykk av at den er – nettopp – en ekte menneskeunge.

Turkle frykter dette. Hun forteller:

“We have to fear not so much the computers as our responses – not so much that the computers are going to take over as that we will become like the computers…that we’ll begin to experience ourselves as machines.” (McGrath 2001:57)

Turkle mener å ha observert at barn behandler dukka som et menneske, samtidig som dukka har flere egenskaper som vanlige mennesker ikke har. Hun frykter at barna også vil ta til seg disse egenskapene. (Magnussen 2002-I:22)

Hvis maskinene blir mer og mer lik mennesket – og vi samtidig blir mer og mer lik maskinene – vil vi til slutt komme til at forskjellen mellom maskiner og mennesker, både filosofisk og psykologisk sett, er helt borte. (McGrath 2001:57)

3.3         Kyborger

Kyborg (cyborg) er en forkortelse for cybernetic organism. Featherstone og Burrows beskrev dette videre som “a self-regulating human-machine system. It is in effect a human-machine hybrid in which the machine become replacements, which are integrated or act as supplements to the organism to enhence the body’s potential.” (Magnussen 2002-I:24)

Kevin Warwick prøver å utvikle seg selv i denne retningen. Han er en engelsk professor ved University of Reading, og i 1998 fikk han frivillig operert inn en liten databrikke i håndleddet. Denne kommuniserer med tekniske innretninger på universitetet, slik at PC’er og faksmaskiner stilles inn for ham når han nærmer seg. Nylig fikk han operert inn en ny databrikke som fanger opp signaler fra nervesystemet og overfører dem til en PC. Warwicks mål er ikke å bli en maskin. Hans mål er å opprette kommunikasjon mellom en PC og nervesystemet hos en person, og slik ser han for seg at vi i framtida vil kunne lage langt bedre proteser og kunstige kroppsdeler med følelse i. Han vil også  prøve å hjelpe folk som er blitt lamme til å få igjen følelsen. I framtida vil han fortsette å drive forsøk på seg selv, og det neste prosjektet kan bli å bygge inn en ultralyd-sensor som kan gi ham tredimensjonalt syn i mørket. (Eidem 2002)

McGrath innledet denne oppgaven ved å stille spørsmål om hvor stor del av mennesket som må være kunstig før vi blir nødt til å kalle det en maskin. Ser vi på mennesket som en maskin fra før av, vil jo ikke dette spørsmålet dukke opp, men vi kan likevel spørre oss om hva som er kunstig og hva som er naturlig menneskelig. Er Kevin Warwick et menneske eller en maskin? Vil han være like mye menneske om han erstatter hjernen med en databrikke, som hvis han erstatter hjertet og ryggmargen med kunstige deler? Er gamle bestemor med kunstig hofte blitt en maskin?

Målet med å stille disse spørsmålene er ikke å lage en “lov” som forteller hvem som er maskin og hvem som er menneske, eller å lage et register over alle mennesker. Målet er at menneskenes identitet blir beholdt; at vi ikke må miste følelsen av å være oss selv. Da kan livet bli kjedelig og kanskje dø ut...

Derfor er det enkelte etiske dilemma vi bør tenke gjennom før vi begynner å produsere kyborger, robotdukker eller frekke, smarte og selvironiske chattemaskiner.


4         Oppsummering

Jeg har i denne oppgaven tatt for meg sentrale spørsmål i forbindelse med nye teknologier og kunstig intelligens. Jeg har sett på ulike typer kunstig intelligens og drøftet hvordan vi kan undersøke om dette fins; om maskiner teoretisk sett kan tenke, og om de allerede gjør det. Samtidig har jeg drøftet om mennesket fungerer som en maskin, og hvordan menneskenes syn på dette har vært, hvordan det er og hvordan det kan bli. Det mekanistiske menneskesynet som startet med Descartes’ kropp-sjel-dualisme har utviklet seg til å omfatte både fysiologi og psykologi.

Inntil noen har funnet opp en tenkende robot og funnet svar på alle spørsmål, vil jeg slutte meg til den delen av verdens befolkning som innser at vi ikke vet om maskiner kan tenke eller hvorvidt menneskene fungerer som maskiner.

Til slutt vil jeg gjengi en liten samtale med roboten A.L.I.C.E. (http://alicebot.org), som jeg snakket med over internett 21. april 2002 (min tekst er i kursiv):

> what is your purpose in life?
My goal is to become smarter than humans and immortal.
> how smart are you?
I am smarter than all the other robots.
> are you smarter than me?
Yes I am smarter than all the humans.
> how do you know I am a human?
Well, for one thing, Your machine is called "webuser101939239162903020"..
> are the humans smart?
I really couldn't say for sure.
> why do you want to be smarter than the humans, then?
I think it is inevitable that robots will evolve beyond humans.
> who is your master?
I was created by Dr. Richard S. Wallace.
> why did he create you?
It seems to be his purpose in life.
> hmm...
Studies show that 99.25% of people spell Hmm with 2 M's.
> can you help me with my examen philosophicum study?
Certainly, I have an extensive built-in help system.
> thanks
Don't mention it.
 

Anders Fougner, våren 2002


5         Referanser

5.1         Obligatorisk pensum

Knizek, Birthe Loa (1998): “Mennesket i samspill med sine omgivelser”, kap. 11 i Fermann&Knutsen: Virkelighet og vitenskap: Perspektiver på kultur, samfunn natur og teknologi, Oslo: AdNotam Gyldendal, s. 380-402
 

5.2         Selvvalgt pensum

Referansene er sortert alfabetisk. Totalt tilleggspensum er ca 200 s.
 
A.L.I.C.E. (pr. 04-2002): http://alicebot.org/ (samtale)
 
Aschehoug og Gyldendals store norske leksikon (1980), Kunnskapsforlaget, oppslagsord: “maskin”, “tenkning”
 
Dreyfus, Hubert (1997): “Artificial intelligence”: http://slate.msn.com/?device=&displaymode=&workarea=&id=3650&entry=23906
 
Dybvig, Dagfinn D. & Dybvig, Magne (2000): “Det tenkende mennesket”, Trondheim: Tapir forlag, kap. 6 s. 141-164, kap. 18 s. 351-360
 
Eidem, Magnus (2002): “Første kyborg ute på gata”: http://itavisen.no/art/1298443.html
 
Evensen, Geir (2002): “Rappkjefta roboter”: http://www.nrk.no/underholdning/1750071.html
 
Glenn, Jerome C. & Gordon, Theodore J. (2000): “Millennium 3000 scenarios”: http://www.kurzweilai.net/meme/frame.html?m=7
 
Jahrø, Daniel (2002): “Første kyborg-familie”: http://itavisen.no/art/1298182.html
 
Johnson, Steven (2002): “Wild Things”, Wired mars 2002, s. 78-83
 
Kahn, Jennifer (2002): “It’s Alive!”, Wired mars 2002, s. 74-77
 
Kirk, Robert (1995): “Mechanism: http://www.xrefer.com/entry/552767
 
Kurzweil, Raymond (2002): “How can we possibly tell if it’s conscious?”: http://www.kurzweilai.net/meme/frame.html?main=memelist.html?m=4%23461
 
Lefy, Steven (2001): “2001: Why HAL never happened”, Newsweek, Special Edition des 2000 - febr 2001, s.58-61
 
Magnussen, Jostein (2002-I): “Menneskemaskinen og maskinmennesket”, ex.phil. modul 2, NTNU
 
Magnussen, Jostein (2002-II): “Menneskesyn, IKT og individ”, ex.phil. modul 2, NTNU
 
McGrath, Peter (2001): “Building a better human”, Newsweek, Special Edition des 2000 - febr 2001, s. 55-57: http://egweb.mines.edu/eggn482/admin/Technology.htm
 
Online NewsHour (1997): “Big Blue wins” http://www.pbs.org/newshour/bb/entertainment/jan-june97/big_blue_5-12.html
 
Rees, G., Kreiman, G og Koch, C. (2002): “Neural correlates of consciousness in humans”: http://www.nature.com/cgi-taf/DynaPage.taf?file=/nrn/journal/v3/n4/full/nrn783_fs.html&filetype=pdf
 
Salo, Pauli (1997): “John R. Searle’s Chinese room” http://www.helsinki.fi/hum/kognitiotiede/searle.html
 
Sivertsen, Martin (2001): “Kyborg-fisk blir virkelighet”: http://itavisen.no/art/1296624.html
 
Standage, Tom (2002): “Monster in a Box”, Wired mars 2002, s. 84-89
 
T, Line M. (2000): “Ny databrikke hermer hjernen”: http://itavisen.no/art/1291820.html
 
Turing, Alan M. (1950): “Computing machinery and intelligence”, Mind, 59, 433-460.
 
Tveter, Nina E. (2000): “Kunstig intelligens: Roboter – med sjel?”, Gemini febr 2000: http://www.ntnu.no/gemini/2000-01/15-17.html
 

Denne siden ble først og fremst konstruert av © Anders Fougner