Del
AIs historiske udvikling

AIs historiske udvikling

Hele begrebet kunstig intelligens, Artificial Intelligence (AI), er knap 70 år gammelt og har som så meget andet rødder i universitetsverdenen.

Dartmouth-konferencen

Dartmouth-konferencen i 1956 er en skelsættende begivenhed i kunstig intelligensens historie, det var et sommerforskningsprojekt, der fandt sted i 1956 på Dartmouth College i New Hampshire, USA.

Konferencen var den første af sin art i den forstand, at den samlede forskere fra tilsyneladende forskellige studieretninger – datalogi, matematik, fysik og andre – med det ene formål at udforske potentialet i syntetisk intelligens (begrebet AI var ikke opfundet endnu).

Under konferencen diskuterede deltagerne en bred vifte af emner relateret til AI, såsom naturlig sprogbehandling, problemløsning og maskinlæring. De lagde også en køreplan for AI-forskning, herunder udvikling af programmeringssprog og algoritmer til at skabe intelligente maskiner.

Denne konference betragtes som et banebrydende øjeblik i AI’s historie, da det markerede feltets fødsel sammen med det øjeblik, navnet “Artificial Intelligence” blev opfundet.

Dartmouth-konferencen havde en betydelig indflydelse på AI’s overordnede historie. Det var med til at etablere AI som et studieområde og tilskyndede til udviklingen af ​​nye teknologier og teknikker.

Deltagerne opstillede en vision for kunstig intelligens, som omfattede skabelsen af ​​intelligente maskiner, der kunne ræsonnere, lære og kommunikere som mennesker. Denne vision udløste en bølge af forskning og innovation på området.

Efter konferencen fortsatte John McCarthy og hans kolleger med at udvikle det første AI-programmeringssprog, LISP. Dette sprog blev grundlaget for AI-forskning og eksisterer stadig i dag.

Konferencen førte også til etableringen af ​​AI-forskningslaboratorier på flere universiteter og forskningsinstitutioner, bl.a MIT, Carnegie Mellon, og Stanford.

Turing testen

En af de mest betydningsfulde arvestykker fra Dartmouth-konferencen er at deltagerne arbejde videre med udformningen af ​​Turing testen her et par år efter Turings død.

Alan Turing, en britisk matematiker, foreslog ideen om en test for at afgøre, om en maskine kunne udvise intelligent adfærd, der ikke kan skelnes fra et menneske.

Dette koncept blev diskuteret på konferencen og blev en central idé inden for AI-forskning. Turing-testen er fortsat et vigtigt pejlemærke til at måle fremskridtene inden for AI-forskning i dag.

Perceptron

Perceptronen er en kunstig neural netværksarkitektur designet af psykolog Frank Rosenblatt i 1958. Den gav trækkraft til det, der er berømt kendt som Brain Inspired Approach to AI, hvor forskere bygger AI-systemer til at efterligne den menneskelige hjerne.

I tekniske termer er Perceptron en binær klassifikator, der kan lære at klassificere inputmønstre i to kategorier. Det fungerer ved at tage et sæt inputværdier og beregne en vægtet sum af disse værdier, efterfulgt af en tærskelfunktion, der bestemmer, om outputtet er 1 eller 0. Vægtene justeres under træningsprocessen for at optimere klassifikatorens ydeevne. Altså en forløber for general adverserial networks, neurale net der træner sig selv ved at to kører synkront og udfordrer hinanden. Jeg har skrevet lidt mere om disse i en anden artikel.

Perceptronen blev set som en vigtig milepæl inden for kunstig intelligens, fordi den demonstrerede potentialet i maskinlæringsalgoritmer til at efterligne menneskelig intelligens. Det viste, at maskiner kunne lære af erfaringer og forbedre deres ydeevne over tid, ligesom mennesker gør.

Perceptronen blev oprindeligt udråbt som et gennembrud inden for kunstig intelligens og fik meget opmærksomhed fra medierne.

Det blev dog senere opdaget, at algoritmen havde begrænsninger, især når det kom til at klassificere komplekse data. Dette førte til et fald i interessen for Perceptron og AI-forskning generelt i slutningen af ​​1960’erne og 1970’erne.

Perceptronen blev dog senere genoplivet og indarbejdet i mere komplekse neurale netværk, hvilket førte til udviklingen af ​​deep learning og andre former for moderne maskinlæring.

I 1960’erne blev de åbenlyse fejl ved perceptronen som sagt opdaget, og så begyndte forskere at udforske andre AI-tilgange ud over Perceptronen. De fokuserede på områder som symbolsk ræsonnement, naturlig sprogbehandling og maskinlæring.

Denne forskning førte til udviklingen af ​​nye programmeringssprog og værktøjer, som f.eks LISP og Prolog, der var specielt designet til AI-applikationer. Disse nye værktøjer gjorde det lettere for forskere at eksperimentere med nye AI-teknikker og at udvikle mere sofistikerede AI-systemer.

1960ernes boom

I løbet af denne tid blev den amerikanske regering også interesseret i kunstig intelligens og begyndte at finansiere forskningsprojekter gennem agenturer såsom Defense Advanced Research Projects Agency (DARPA). Denne finansiering var med til at fremskynde udviklingen af ​​kunstig intelligens og gav forskerne de ressourcer, de havde brug for til at tackle stadig mere komplekse problemer.

AI-boomet i 1960’erne kulminerede i udviklingen af ​​adskillige skelsættende AI-systemer. Et eksempel er General Problem Solver (GPS), som blev skabt af Herbert Simon, J.C. Shaw og Allen Newell. GPS var et tidligt AI-system, der kunne løse problemer ved at søge gennem et rum af mulige
løsninger.

Et andet eksempel er ELIZA programmet, skabt af Joseph Weizenbaum, som var et naturligt sprogbehandlingsprogram, der simulerede en psykoterapeut.

1980’ernes afkøling

AI-vinteren i 1980’erne refererer til en periode, hvor forskning og udvikling inden for kunstig intelligens (AI) oplevede en betydelig afmatning oven på 1960’erne og 1970’ernes entusiasme.

Dette skete delvist, fordi mange af de AI-projekter, der var blevet udviklet under AI-boomet, ikke holdt deres løfter. AI-forskersamfundet blev mere og mere desillusioneret over manglen på fremskridt på området. Dette førte til finansieringsnedskæringer, og mange AI-forskere blev tvunget til at opgive deres projekter og forlade feltet helt.

Overordnet set var AI-vinteren i 1980’erne en væsentlig milepæl i AI-historien, da den demonstrerede udfordringerne og begrænsningerne ved AI-forskning og -udvikling. Det tjente også som en advarselshistorie for investorer og politiske beslutningstagere, som indså, at hypen omkring AI nogle gange kunne være overdrevet, og at fremskridt på området ville kræve vedvarende investeringer og engagement.

Ekspertsystemer er en type kunstig intelligens (AI) teknologi, der blev udviklet i 1980’erne. Ekspertsystemer er designet til at efterligne beslutningsevnerne hos en menneskelig ekspert inden for et specifikt domæne eller område, såsom medicin, økonomi eller teknik.

Ekspertsystemer

Udviklingen af ​​ekspertsystemer markerede et vendepunkt i AIs historie. Presset på AI-samfundet var steget sammen med efterspørgslen om at levere praktiske, skalerbare, robuste og kvantificerbare applikationer af kunstig intelligens.

Ekspertsystemer tjente som bevis på, at AI-systemer kunne bruges i virkelige systemer og havde potentialet til at give betydelige fordele til virksomheder og industrier. Ekspertsystemer blev brugt til at automatisere beslutningsprocesser i forskellige domæner, fra diagnosticering af medicinske tilstande til forudsigelse af aktiekurser.

I tekniske termer er ekspertsystemer typisk sammensat af en vidensbase, som indeholder information om et bestemt domæne, og en inferensmotor, som bruger denne information til at ræsonnere om nye input og træffe beslutninger. Ekspertsystemer inkorporerer også forskellige former for ræsonnement, såsom deduktion, induktion og abduktion, for at simulere menneskelige eksperters beslutningsprocesser.

I dag bliver ekspertsystemer fortsat brugt i forskellige industrier, og
deres udvikling har ført til skabelsen af ​​andre AI-teknologier, såsom maskinlæring og naturlig sprogbehandling.

1990’erne ser og lærer

Som diskuteret i det foregående afsnit kom ekspertsystemer i spil omkring slutningen af ​​1980’erne og begyndelsen af ​​1990’erne. Men de var begrænset af, at de var afhængige af strukturerede data og regelbaseret logik. De kæmpede for at håndtere ustrukturerede data, såsom tekst eller billeder i naturligt sprog, som i sagens natur er tvetydige og kontekstafhængige.

For at løse denne begrænsning begyndte forskere at udvikle teknikker til behandling af naturligt sprog og visuel information.

I 1990’erne førte fremskridt inden for maskinlæringsalgoritmer og computerkraft til udviklingen af ​​mere sofistikerede NLP- og Computer Vision-systemer.

Forskere begyndte at bruge statistiske metoder til at lære mønstre og funktioner direkte fra data i stedet for at stole på foruddefinerede regler. Denne tilgang, kendt som machine learning, muliggjorde mere nøjagtige og fleksible modeller til behandling af naturligt sprog og visuel information.

En af de vigtigste milepæle i denne æra var udviklingen af ​​Hidden Markov Model (HMM), som muliggjorde probabilistisk modellering af tekst i naturligt sprog. Dette resulterede i betydelige fremskridt inden for talegenkendelse, sprogoversættelse og tekstklassificering.

Tilsvarende inden for Computer Vision tillod fremkomsten af ​​Convolutional Neural Networks (CNN’er) mere nøjagtig genkendelse af objekter og billedklassificering.

Disse teknikker bruges nu i en lang række applikationer, fra selvkørende biler til medicinsk billedbehandling.

2000’erne og big data

Begrebet big data har eksisteret i årtier, men dets fremtræden i forbindelse med kunstig intelligens (AI) kan spores tilbage til begyndelsen af ​​2000’erne.

For at data kan betegnes som big, skal de opfylde 3 kerneegenskaber: Volume, Velocity og Variety.

  • Volume refererer til selve størrelsen af ​​datasættet, som kan variere fra terabyte til petabyte eller endnu større.
  • Velocity refererer til den hastighed, hvormed dataene genereres og skal behandles. For eksempel kan data fra sociale medier eller IoT-enheder genereres i realtid og skal behandles hurtigt.
  • Og variety refererer til de forskellige typer af data, der genereres, herunder strukturerede, ustrukturerede og semistrukturerede data.

•Før fremkomsten af ​​big data var AI begrænset af mængden og kvaliteten af ​​data, der var tilgængelige til træning og test af maskinlæringsalgoritmer.

Natural language processing (NLP) og computer vision var to områder af kunstig intelligens, der oplevede betydelige fremskridt i 1990’erne, men de var stadig begrænset af mængden af ​​data, der var tilgængelig.

For eksempel var tidlige NLP-systemer baseret på håndlavede regler, som var begrænsede i deres evne til at håndtere kompleksiteten og variabiliteten af ​​naturligt sprog.

Fremkomsten af ​​big data ændrede dette ved at give adgang til enorme mængder data fra en lang række kilder, herunder sociale medier, sensorer og andre tilsluttede enheder.

Dette gjorde det muligt for maskinlæringsalgoritmer at blive trænet på meget større datasæt, hvilket igen gjorde dem i stand til at lære mere komplekse mønstre og lave mere præcise forudsigelser.

Samtidig gjorde fremskridt inden for datalagring og -behandlings-teknologier, såsom Hadoop og Spark, det muligt at behandle og analysere disse store datasæt hurtigt og effektivt. Dette førte til udviklingen af ​​nye maskinlæringsalgoritmer, såsom deep learning, som er i stand til at lære af enorme mængder data og lave meget præcise forudsigelser.

Deep learning

Fremkomsten af ​​Deep Learning er en vigtig milepæl i globaliseringen af ​​moderne kunstig intelligens.

Lige siden Dartmouth-konferencen i 1950’erne er AI blevet anerkendt som et legitimt studieområde, og de første år med AI-forskning fokuserede på symbolsk logik og regelbaserede systemer. Dette involverede manuel programmering af maskiner til at træffe beslutninger baseret på et sæt forudbestemte regler. Selvom disse systemer var nyttige i visse applikationer, var de begrænset i deres evne til at lære og tilpasse sig nye data.

Det var først efter fremkomsten af ​​big data, at deep learning blev en vigtig milepæl i AIs historie. Med den eksponentielle vækst i mængden af ​​tilgængelige data, havde forskerne brug for nye måder at behandle og udtrække indsigt fra enorme mængder information.

Deep learning-algoritmer gav en løsning på dette problem ved at gøre det muligt for maskiner automatisk at lære fra store datasæt og foretage forudsigelser eller beslutninger baseret på denne læring.

Deep learning er en type maskinlæring, der bruger kunstige neurale netværk, som er modelleret efter den menneskelige hjernes struktur og funktion. Disse netværk er opbygget af lag af indbyrdes forbundne noder, som hver udfører en specifik matematisk funktion på inputdataene. Outputtet fra et lag tjener som input til det næste, hvilket gør det muligt for netværket at udtrække stadig mere komplekse funktioner fra data.

En af de vigtigste fordele ved deep learning er dens evne til at lære hierarkiske repræsentationer af data. Det betyder, at netværket automatisk kan lære at genkende mønstre og funktioner på forskellige abstraktions-niveauer.

For eksempel kan et dybt læringsnetværk lære at genkende formen af ​​individuelle bogstaver, derefter ordenes struktur og endelig betydningen af ​​sætninger.

Udviklingen af ​​deep larning har ført til betydelige gennembrud inden for områder som computersyn, talegenkendelse og naturlig sprogbehandling. For eksempel er deep learning-algoritmer nu i stand til præcist at klassificere billeder, genkende tale og endda generere realistisk menneskelignende sprog eller spille komplekse spil som Go.

Deep learning repræsenterer en vigtig milepæl i AI’s historie, muliggjort af fremkomsten af ​​big data. Dens evne til automatisk at lære af enorme mængder information har ført til betydelige fremskridt inden for en lang række applikationer, og det vil sandsynligvis fortsætte med at være et nøgleområde for forskning og udvikling i de kommende år.

Generativ AI

Det er her, vi er i den aktuelle AI-tidslinje. Generativ AI er et underområde af kunstig intelligens (AI), der involverer at skabe AI-systemer, der er i stand til at generere nye data eller indhold, der ligner data, det blev trænet på. Dette kan omfatte generering af billeder, tekst, musik og endda videoer.

Transformers, en type neural netværksarkitektur, har revolutioneret generativ AI. De blev introduceret i et papir af Vaswani et al. i 2017 og har siden været brugt i forskellige opgaver, herunder naturlig sprogbehandling, billedgenkendelse og talesyntese.

Transformers bruger selvopmærksomhedsmekanismer til at analysere forholdet mellem forskellige elementer i en sekvens, hvilket giver dem mulighed for at generere mere sammenhængende og nuanceret output.

Dette har ført til udviklingen af ​​store sprogmodeller såsom GPT-4 (ChatGPT), som kan generere menneskelignende tekst om en lang række emner.

Disse GPTer kombinerer transformers med store mængder tekst i sprogmodeller.

Titelbillede genereret via Adobe Firefly

Kilder

Skriv en kommentar