ARTIFICIELLT LIV SOM VETENSKAP:
Djungel av digitala organismer
A hell broke loose.
Så beskriver evolutionsekologen
och dataprofessorn
Thomas Ray vad som
hände när han första
gången startade sitt
program Tierra på
datorn. Historien
börjar egentligen tretton
år tidigare då Ray
under sina studier av
tropiska livsformer
träffade en entusiast
inom forskningen om
artificiell intelligens
som fällde repliken:
Vet du om att det är
fullt möjligt att konstruera
självkopierande
datorprogram?
För Ray blev dessa ord avgörande och
avstampet till utvecklingen av Tierra
och därmed också den nya vetenskapsgren
som idag går under benämningen
artificiellt liv, Alife.
Rays ambition med Tierra var något
närmast svindlande att i en dator
skapa en värld där enkla organismer
genom det naturliga urvalet genomgår
en successiv utveckling till komplexa
stadier. Det som sker är att små programsnuttar
i konkurrens med varandra
om de elektroniska resurserna, processortid
och minnesutrymme, skapar kopior
av sig själva, emellanåt lätt förvanskade
av medvetna programfel en process
som stegvis leder till bättre programsnuttar.
Resultatet? A hell broke loose. På
morgonen, efter en natts körning och
ett kolossalt antal generationsväxlingar
som i verkligheten skulle tagit miljarder
år, kunde Ray konstatera evolutionens
resultat en djungel av digitala organismer
som tycktes märkligt välbekanta
i en jämförelse med den verklighet han
då arbetade med, den tropiska regnskogen.
Jag behövde bara stå vid sidan och
se på, ungefär som en Gud som är nöjd
med sin skapelse, beskriver Ray sin
upplevelse.
Idag är Alife ett eget vetenskapsfält
med årliga konferenser och stor produktion
av vetenskapliga artiklar och faktiskt
kan man på nätet gratis hämta hem avancerade
simuleringsprogram och själv leka
skapare. Samtidigt är Alife bara en del av
något mycket större en ny vetenskaplig
strategi som innebär att forskarna i sina
datorer skapar olika former av elektroniska
världar och där syftet är att studera
egenskaperna hos komplexa, dynamiska
och adaptiva system med aktörer som inte
följer i förväg kända och fasta lagar.
Matematikern och komplexitetsforskaren
John L. Casti går så långt som att
hävda att denna nya metod i grunden
kommer att förändra det vetenskapliga
arbetssättet. Det gör han i sin bok Virtuella
världar som utkom 1997 men
som fortfarande känns lika aktuell. I
denna presenterar Casti sitt credo att
vetenskapen nu för första gången i historien
kan avancera från ett studium av
verklighetens materiella struktur till dess
informationsstruktur. Därmed kan forskarna
undersöka inte bara vad system är
utan vad system gör.
Den etablerade vetenskapliga metoden,
utvecklad och förfinad under
mer än tre hundra år, har enligt Casti
fyra grundpelare observation, teori,
hypotes och experiment. Vetenskapens
exempellösa framgång de senaste seklen
har varit möjlig just för att man med
experiment systematiskt kontrollerat
hypoteser och teorier som man härlett
utifrån observationer. Men och nu blir
det svårt hur kontrollerar man med
experiment en teori som till exempel
säger att jorden om en tid kommer att
slungas ut ur solsystemet?
Och hur undersöker man i förväg
med experiment antaganden om hur
trängselavgifter i Stockholm påverkar
trafiken i innerstaden? För att inte tala
om hur världsekonomin påverkas av en
Tobinskatt. Det är här som möjligheterna
att skapa virtuella världar kommer in.
Datorernas beräkningskapacitet är idag
så stor att det går att simulera mycket
komplexa system med många ingående
komponenter som dessutom under resans
gång förändrar sina karaktäristika. Casti
beskriver i sin bok många sådana system
Tierra är ett. Ett annat och mycket
tankeväckande gäller trafikproblemen i
staden Albuquerque, New Mexico, med
en folkmängd på uppåt en halv million
individer.
Ekonomiprofessorn Christoffer Barrett
lyckades för ett drygt decennium sedan
göra en datorrepresentation av denna
stad där varje gatstump är med inklusive
enkelriktningar, trafikljus och tillfälliga
gatuarbeten därtill med människors
preferenser för vissa stadsdelar och trafikstråk
och antipatier för andra. Med detta
simuleringsprogram kunde Barrett lätt
se hur trafiken och miljön skulle påverkas
om en ny bro över Rio Grande byggdes,
en gata stängdes eller enkelriktades, ett
trafikljus togs bort eller ett nytt shoppingcenter
uppfördes. Man kan ju fråga
sig vad Barretts simulering applicerad
på Stockholm skulle säga om just trängselavgifter!
Casti har två ambitioner med sin
bok. En är att ge exempel på intelligenta
simuleringar av förlopp som vi
inte kan undersöka med experiment.
Hans andra ambition är mycket större
och gäller inget mindre än möjligheterna
och gränserna för den vetenskapliga kunskapen.
Casti skiljer här mellan tre världar
den fysiska, den matematiska och den
datorberäknade och dessa världar måste
göras samstämmiga om vi ska lyckas med
att i ett program troget representera en
aspekt av verkligheten. I detta sammanhang
kommer Casti in på några av de knäckfrågor som sysselsatt
forskningen
inom artificiell intelligens i över ett halvt
sekel det gäller till exempel konsekvenserna
av Gödels ofullständighetsteorem
och Heisenbergs osäkerhetsrelation. Och
hans slutsats är djärv. Det finns nog inga
principiella gränser för våra möjligheter
att få vetenskapliga svar, oavsett vilken
fråga vi ställer om verkligheten.
Om man tycker Casti är väl teoretisk
här och vill ha en mer lättsmält
variant på samma tema ska man läsa
hans roman från 1998 The Cambridge
Quintet. A Work of Scientific Speculation.
I denna spännande bok låter han i
ett fiktivt möte år 1949 fem av dåtidens
största vetenskapsmän Wittgenstein,
Turing, Snow, Haldane och Schrödinger
träffas för att diskutera om intelligens
kan programmeras in i en maskin. Jag
ska inte avslöja deras slutsatser!
Casti ägnar också en liten del av Virtuella
världar till de konkreta metoder
som används för att skapa intelligenta
program. En viktig bygger på konstgjorda
neurala nätverk, som kan ses som
en elektronisk kopia av den mänskliga
hjärnan, där elektroniska komponenter
motsvarar hjärnas neuroner. Syftet är
att dessa nätverk ska fungera just som
hjärnan, det vill säga få samma inlärnings-
och styrningsförmåga och samma
kapacitet för minneslagring eller varför
inte bättre?
Forskningen om de konstgjorda neurala
nätverken har kommit långt de
senaste decennierna och även om de ännu
inte alls har hjärnans komplexitet och
prestanda finns det förhoppningar att de i
en framtid ska få det, även om Casti själv
i sin bok låter osagt vara bäst.
En som är mer optimistisk är Bertil
Thomas, universitetslektor på Chalmers
och forskare i reglerteknik och intelligenta
system. I hans nyutkomna bok
Framtidens intelligens. En bok om AI,
återkoppling och neurala nätverk gör
han en noggrann och utmärkt pedagogisk
genomgång av forskningsläget för
intelligenta system i datormiljö nu i
början av det tjugoförsta seklet.
Thomas och Casti har delvis samma
fokus och tillsammans beskriver de en
spännande vetenskaplig utveckling som
tog fart runt 1990, ändå finns det klara
skillnader mellan deras böcker. Thomas
orienterar sin text mer mot designen av
artificiell intelligens och den avgörande
återkopplingsprincipen, medan Casti är
mer intresserad av de färdiga resultaten
och de filosofiska frågor dessa ger upphov
till. Thomas gör också en mycket noggrann
analys av de mänskliga systemen
för datainsamling, återkoppling och
beslutsfattande och i vilken utsträckning
dessa kan simuleras i maskiner,
något som Casti bara flyktigt berör.
Dessutom har Thomas ett framtidsperspektiv
som Casti ryggar för. I
enlighet med en djärv angloamerikansk
tradition inom AI-forskningen är han
inte främmande för en genomgripande
utveckling av datakraftens potential.
Kanske kommer gränsen mellan människa
och maskin till och med att suddas
ut i framtiden. Då är det möjligt att vi
lever i en lycklig och fullständig symbios
med tankestyrda maskiner och att
kopplingen med dessa maskiner opereras
in redan hos det nyfödda barnet, skriver
han. Så karsk är inte Casti. Men så var
det ju också sex år sedan han skrev sin
bok, en oändlig tidsrymd när vi talar
datorer