Domene og webhotell fra OnNet.no

    Denne artikkelen er del 3 av 17 artikler om Kunstig intelligens

Lesetid (240 ord/min): 8 minutter

Kunstig intelligens sin historiske utvikling

Hvordan har kunstig intelligens utviklet seg gjennom årene?

Den historiske utviklingen av kunstig intelligens (KI) er preget av mange faser, fra tidlige teoretiske spekulasjoner til dagens avanserte teknologier. Denne utviklingen kan deles inn i flere epoker, hver med sine egne gjennombrudd, utfordringer, og teknologiske fremskritt.

Tidlige filosofiske og matematisk grunnlag (før 1950-tallet)

Filosofiske ideer om mekaniske innretninger og kunstige vesener som kunne “tenke” kan spores tilbake helt til antikkens Hellas. Filosofer som Aristoteles spekulerte i hvordan logikk og regler kunne brukes til å etterligne menneskelig tenkning.

Opplysningstidens filosofer, som René Descartes, utviklet teorier om mekanistisk syn på menneskesinnet på 1600-1700-tallet. Teorier som senere skulle inspirere tidlige tenkere om kunstig intelligens.

På 1800-tallet la George Boole grunnlaget for symbolsk logikk, som senere skulle bli sentralt i utviklingen av kunstig intelligens. Samtidig utviklet Charles Babbage og Ada Lovelace konsepter for mekaniske beregningsmaskiner, som også påvirket fremtidige ideer om intelligente maskiner.

Den moderne begynnelsen (1940-1950-tallet)

Alan Turing og Turing-testen

Alan Turing (1912–1954) var en britisk matematiker, logiker, kryptanalytiker, og datavitenskapsmann. Han regnes ofte som en av grunnleggerne av moderne datavitenskap og han var en tidlig pionér innen kunstig intelligens. Han er kjent for sine banebrytende bidrag til utviklingen av datavitenskap og kunstig intelligens, spesielt gjennom sine ideer om den universelle Turing-maskinen og Turing-testen.

Under andre verdenskrig spilte Turing en avgjørende rolle i å knekke den tyske Enigma-koden, som ble brukt av nazistene til å sende krypterte meldinger. Turings arbeid ved Bletchley Park, der han utviklet en tidlig form for maskin som hjalp til med å automatisere prosessen med å dekryptere meldinger, anses å ha forkortet krigen betydelig. Denne dekrypteringsmaskinen er noen ganger ansett som en forløper til moderne datamaskiner.

Turing-maskin

En Turing-maskin er et teoretisk beregningskonsept som Turing beskrev i sin banebrytende artikkel “On Computable Numbers, with an Application to the Entscheidungsproblem” fra 1936. Turing-maskinen er en enkel modell for hvordan en datamaskin kan utføre beregninger ved å manipulere symboler på et bånd i henhold til et sett med regler. Maskinen opererer ved å bruke en sekvens av regler (en algoritme) som angir hva den skal gjøre basert på den nåværende tilstanden og symbolet den leser.

En av de viktigste oppdagelsene Turing gjorde, var konseptet om en universell Turing-maskin, som er i stand til å simulere hvilken som helst annen Turing-maskin. Dette konseptet danner grunnlaget for moderne datamaskiner, som kan utføre et hvilket som helst beregningsproblem som kan uttrykkes som en algoritme.

Turing-maskinen er ikke en fysisk maskin, men en matematisk modell for hvordan en datamaskin kan operere. Den universelle Turing-maskinen demonstrerte at det er mulig å ha en enkelt maskin som kan utføre alle mulige beregningsoppgaver, noe som er grunnlaget for moderne programmerbare datamaskiner.

Turing-testen

I 1950 publiserte Turing artikkelen “Computing Machinery and Intelligence“, der han utforsket spørsmålet “Kan maskiner tenke?” For å besvare dette introduserte han en metode kjent som Turing-testen, som har blitt et av de mest kjente konseptene innen kunstig intelligens.

Turing-testen ble opprinnelig kalt imitasjonsspill og er en måte å evaluere en maskins evne til å utvise intelligent oppførsel som er uatskillelig fra et menneskes. I testen er det tre deltakere:

  • En menneskelig dommer: En person som kommuniserer via tekst med to parter, en maskin og et menneske, uten å vite hvem som er hvem.
  • Maskinen: En datamaskin som forsøker å etterligne et menneskes måte å kommunisere på.
  • Mennesket: Et menneske som også svarer på dommerens spørsmål.

Dommerens oppgave er å avgjøre hvem som er maskinen og hvem som er mennesket basert på samtalen. Hvis dommeren ikke klarer å skille maskinens svar fra menneskets svar med en høy grad av sikkerhet, har maskinen bestått Turing-testen.

Målet med Turing-testen er ikke å definere hva intelligens er, men å gi en pragmatisk metode for å evaluere en maskins evne til å etterligne menneskelig intelligens. Turing-testen handler om funksjonell ekvivalens, det vil si hvor godt maskinen kan simulere menneskelig tenkning og oppførsel i en spesifikk kontekst.

Selv om Turing-testen har vært svært innflytelsesrik, har den også møtt kritikk. Noen hevder at den ikke måler ekte intelligens, men bare maskinens evne til å etterligne visse aspekter av menneskelig oppførsel. Filosofer som John Searle har argumentert mot Turing-testen gjennom tankeeksperimenter som “Kinesisk rom”-argumentet, som hevder at det er en forskjell mellom å forstå et språk og bare å manipulere symboler.

Kybernetikk og Automata

I 1948 publiserte Norbert Wiener boken “Cybernetics“, som utforsket kontroll og kommunikasjon i både dyr og maskiner. Dette la grunnlaget for senere arbeid innen kunstig intelligens, spesielt innenfor regulering og tilbakemeldingssystemer.

John von Neumann bidro til utviklingen av datateori og tidlige datamaskinarkitekturer som kunne støtte forskning innen kunstig intelligens. 

Fødselen av kunstig intelligens som fagfelt (1950-1960-tallet)

Dartmouth-konferansen i 1956

I 1956 arrangerte John McCarthy, Marvin Minsky, Nathaniel Rochester og Claude Shannon Dartmouth-konferansen. En konferanse som regnes som starten på kunstig intelligens som et akademisk fagfelt. På denne konferansen ble begrepet “artificial intelligence” (kunstig intelligens) brukt for først gang.

På 1950- og 1960-tallet fokuserte forskningen på symbolsk kunstig intelligens, der man brukte logikk og symbolmanipulasjon for å etterligne menneskelig tenkning. Tidlige programmer som Logic Theorist og General Problem Solver, utviklet av Allen Newell og Herbert A. Simon, kunne bevise matematiske teoremer og løse generelle problemer ved hjelp av symbolsk logikk.

Claude Shannon publiserte artikler om hvordan en datamaskin kunne spille sjakk. Dette var en av de første applikasjonene av kunstig intelligens som kunne spille komplekse spill. Dette arbeidet inspirerte senere utvikling innen maskinlæring og søkealgoritmer.

Tidlig optimisme og skuffelser (1960-1970-tallet)

I løpet av 1960- og 1970-tallet ble det utviklet ekspertssystemer, som MYCIN og DENDRAL, som kunne ta beslutninger i spesifikke fagområder (som medisin og kjemi) ved å bruke regler basert på ekspertkunnskap.

Tidlig optimisme ble snart erstattet av skuffelser da det ble klart at symbolsk KI hadde store begrensninger. Det var vanskelig å skalere opp systemene, og de manglet evnen til å lære og generalisere. Dette førte til at finansieringen og interessen for kunstig intelligens avtok kraftig i slutten av 1970-årene og begynnelsen av 1980-årene, en periode som nå kalles den første AI-vinteren.

Fornyet interesse og utvikling av maskinlæring (1980-1990-tallet)

Tilbakekomst av nevrale nettverk

I 1958 ble Perceptron introdusert av Frank Rosenblatt, en viktig tidlig milepæl innen kunstig intelligens og maskinlæring. Perceptron er en grunnleggende enhet innen nevrale nettverk og regnes som en av de første kunstig intelligente algoritmene som ble utviklet for å simulere en form for læring. 

En Perceptron er den enkleste formen for et nevralt nettverk og brukes til binær klassifikasjon, altså å skille data i to kategorier. Den kan betraktes som en enkel lineær klassifikator, som er basert på en modell av hvordan biologiske nevroner fungerer.

Selv om Perceptron kun kan løse lineært separerbare problemer, har perceptronen vært en avgjørende byggestein i utviklingen av mer komplekse nevrale nettverk som multi-layer perceptrons og dyp læring

Perceptronen har en viktig plass i historien til kunstig intelligens og maskinlæring fordi den var et tidlig bevis på at maskiner kunne lære ved å justere parametere basert på data. Selv om perceptronen alene hadde begrenset anvendelse, viste den vei for videre utvikling av nevrale nettverk og læringsalgoritmer.

Frank Rosenblatt trodde at perceptronen kunne være grunnlaget for generell maskinlæring, men etter Minsky og Paperts bok Perceptrons (1969), som kritiserte perceptronens begrensninger, avtok interessen for nevrale nettverk i noen tiår. Med utviklingen av tilbakepropagering og økningen i beregningskraft på 1980-tallet, kom interessen for nevrale nettverk tilbake. Dette la grunnlaget for dagens dype læring-revolusjon.

Fuzzy logikk og genetiske algoritmer

I løpet av 1980-tallet ble fuzzy logikk utviklet for å håndtere usikkerhet og tvetydighet i beslutningstaking. Dette utvidet KI-feltets evner til å håndtere komplekse og ustrukturerte problemer.

Fuzzy logikk er en utvidelse av klassisk boolsk logikk som håndterer grader av sannhet i stedet for bare “sant” eller “falskt”. I klassisk logikk er enhver påstand enten sann (1) eller falsk (0), men fuzzy logikk tillater mellomverdier, som gir en mer fleksibel måte å beskrive og modellere usikre eller vage konsepter. Dette er spesielt nyttig i situasjoner der menneskelig resonnering eller språklige beskrivelser ikke lett kan reduseres til eksakte ja/nei-svar, noe som gjør det til et kraftig verktøy for mange anvendelser innen kunstig intelligens, styringssystemer, og beslutningstaking.

I AI og robotikk brukes fuzzy logikk til å modellere beslutninger som er mer menneskelige, der skarpe regler ikke er tilstrekkelige. For eksempel kan en robot bruke fuzzy logikk til å navigere i et miljø basert på vage sensoravlesninger.

Denne tilnærmingen gjør det mulig å håndtere usikkerhet, tvetydighet og vaghet. Ved å bruke medlemskapsfunksjoner og fuzzy regler kan systemer ta beslutninger som ligner på menneskelige resonnementer. Selv om fuzzy logikk har sine begrensninger, spesielt i manglende evne til å lære fra data, har den fortsatt en viktig rolle i mange tekniske og vitenskapelige anvendelser.

John Holland introduserte genetiske algoritmer. En optimaliseringsmetode inspirert av naturlig evolusjon, som bruker prinsipper fra darwinistisk seleksjon for å finne løsninger på komplekse problemer. Disse algoritmene er spesielt nyttige for problemer der tradisjonelle optimaliseringsmetoder kan være ineffektive, for eksempel når problemet har et stort søkerom eller mange lokale minima.

Genetiske algoritmer etterligner mekanismene for naturlig seleksjon og genetisk rekombinasjon for å løse optimaliseringsproblemer. De bruker en populasjon av mulige løsninger som evolveres over tid ved hjelp av operasjoner som seleksjon, kryssing (crossover), og mutasjon.

På 1980-tallet førte kommersiell skuffelse over ekspertssystemer til en nedgang i finansiering og interesse for kunstig intelligens, noe som resulterte i den andre AI-vinteren på slutten av 1980- og begynnelsen av 1990-tallet.

Fremvekst av moderne KI (2000-tallet og fremover)

Maskinlæring og Big Data

I takt med økte datamenger (Big Data) og tilgjengeligheten av mer kraftige datamaskiner, begynte maskinlæring å dominere KI-feltet på 2000-tallet. Algoritmer som Support Vector Machines (SVM) og Random Forests ble utviklet og brukt i en rekke applikasjoner.

Gjennombruddet i dyp læring, som bruker nevrale nettverk med mange lag, kom på midten av 2000-tallet. Forskere som Geoffrey Hinton, Yann LeCun, og Yoshua Bengio var sentrale i denne utviklingen. Dyp læring har gjort det mulig å løse komplekse problemer innen datasyn, naturlig språkbehandling, og talegjenkjenning.

Transformers og Naturlig Språkbehandling

Transformer-arkitekturen ble introdusert i 2017, noe som revolusjonerte NLP-feltet. Modeller som BERT, GPT, og senere GPT-3 har satt nye standarder for hvordan maskiner kan forstå og generere naturlig språk.

Kunstig intelligens har i dag blitt en integrert del av hverdagen med applikasjoner som personlige assistenter (f.eks. Siri, Alexa), ansiktsgjenkjenning, automatiserte oversettelser, og anbefalingssystemer.

Generative Adversarial Networks (GANs) har gjort det mulig å generere nye data som bilder, musikk og tekst. Dette har åpnet opp for kreative anvendelser av KI.

Med KI-teknologiens økende innflytelse kommer også etiske spørsmål knyttet til personvern, bias, jobbutfasing, og AI-sikkerhet. Noe som har skapt et voksende behov for regulering og retningslinjer for ansvarlig KI-utvikling.

I dag fokuserer forskningen på hvordan mennesker og KI kan samarbeide effektivt, samt hvordan KI kan forbedres for å være mer forklarbar, pålitelig, og rettferdig.

Oppsummering

Utviklingen av kunstig intelligens har vært en reise fra teoretiske ideer og tidlige eksperimenter til dagens avanserte systemer som har omfattende anvendelser i samfunnet. Mens de tidlige dagene av KI var preget av optimisme og skuffelser, har feltet modnet betydelig med fremskritt innen maskinlæring, dyp læring, og naturlig språkbehandling. Fremtiden for KI er lovende, men den bringer også med seg komplekse utfordringer som vil kreve nøye overveielse og ansvarlig utvikling.

Du leser nå artikkelserien: Kunstig intelligens

  Gå til neste / forrige artikkel i artikkelserien: << Kunstig intelligens – en kilde til innovasjon og økt lønnsomhetAutomatisering >>
    Andre artikler i serien er: 
  • Kunstig intelligens
  • Kunstig intelligens – en kilde til innovasjon og økt lønnsomhet
  • Historisk utvikling av kunstig intelligens
  • Automatisering
  • Algoritme
  • Big Data – kilde til innovasjon og konkurransefortrinn
  • Symbolsk KI
  • Subsymbolsk KI (Statistisk KI)
  • Maskinlæring
  • Maskinlæring: Veiledet læring (Supervised Learning)
  • Maskinlæring: Ikke-veiledet læring (Unsupervised Learning)
  • Maskinlæring: Læring med forsterkning (Reinforcement Learning)
  • Dyp læring
  • Naturlig Språkbehandling (NLP)
  • Datasyn
  • Hvilken etikk benytter kunstig intelligens (AI)?
  • Vil kunstig intelligens (AI) ta over jobbene våre?
  • Kjetil Sander
    Kjetil Sander (f.1968) grunnlegger, redaktør, forfatter og serieentreprenør. Gunnla Kunnskapssenteret.com i 2001 (i dag eStudie.no) og har siden vært portalens redaktør. Utdannet Diplom økonom og Diplom markedsfører fra BI/NMH. Har i dag mer enn 30 års erfaring som serieentreprenør, leder og styremedlem.