Ikke overraskende, findes der i IT-branchen folk, der tror, at vi gennem en kombination af eksponentielt øget computerkraft (Big data/IoT, AI/ML) i overført betydning vil kunne opdage det, økonomen og filosoffen Adam Smith kaldte markedets ”usynlige hånd”.

Enorme mængder af viden – men kan den bruges?
I 1965 sagde en medstifter af chipproducenten Intel, amerikaneren Gordon Moore, at antallet af transistorer i nye computerchips i de næste 10 år ville fordobles hver 24 måneder. Altså ville computerkraften stige eksponentielt. Dette har holdt stik, i øvrigt også efter de 10 år fra 1965 til 1975 som Moore så ind i. Og selvom man i dag diskuterer grænser for vækst i henhold Moores’ lov, tyder intet på at computerkraft ikke også fremover vil stige kraftigt.

Moores lov har også kunne anvendes på digitalisering af data og derved på indsamling og opbevaring af data. Mindre og billigere computere indlejres i alle mulige fysiske enheder. Data skulle tidligere opsamles og videregives ved manuelt arbejde af mennesker, men i dag har vi som bekendt chips i vores personlige smartphones, træningsinstrumenter, i vores biler, fjernsyn, som klarer det arbejde. Virksomheder har sensorer i maskiner, køretøjer, ja, i selve de produkter, som laves og sælges. Alle disse ting er forbundet til det, man for nogle år siden døbte ”the internet of things (IOT). Konsulentfirmaet IDC forventer, at der i 2025 vil findes 41,6 millarder IoT-apparater forbundet til internettet, og at disse “ting” vil generere 79,4 zettabytes (ZBs) i dette år. 1 ZB er 1 sekstillion – altså 1 med 36 nuller bagefter.

Mange store computere arbejder sammen i klynger, i en slags “sky” (jf. betegnelsen cloud computing) om at behandle flere ZB af data. Men det er ingen garanti for, at der kommer noget som helst brugbart ud af behandlingen. Der er behov for computerprogrammer, der kan behandle al den data, omforme det til information, hvorfra meningsfuld viden kan skabes. Der skal skabes en logik, som kan skaleres til at behandle datamængder af en hidtil uset størrelse.

Her kan man tale om behovet for et paradigmeskift – kan og skal vi udskifte den menneskelige intelligens med noget større? En computer arbejder med matematisk logik, og er udstyret med algoritmiske programmer, der vel og mærket oprindeligt kodet af mennesker af kød og blod. Men artificial intelligence (AI) kan gøres selvforstærkende, således at algoritmen kan melde tilbage og forbedre sig selv på grundlag af erfaringer. Maskinen kan altså lære sig selv at blive bedre (machine learning, ML) og har potentialet til at tage menneskelig intelligens til en anden dimension.

Spørgsmålet er så: Kan et netværk af computere, der i realtid modtager data fra milliarder af IoT-apparater, og som behandler disse massive datamængder med de rette, selvlærende, algoritmer, der er programmeret til at forudsige en effektiv allokering af alle ressourcer, styre økonomien?

Ikke overraskende, findes der i IT-branchen folk, der tror, at vi gennem en kombination af eksponentielt øget computerkraft (Big data/IoT, AI/ML) i overført betydning vil kunne opdage det, økonomen og filosoffen Adam Smith kaldte markedets ”usynlige hånd”.

Hvad teknologien har betydet for virksomhederne
Stifteren af den kinesiske e-commerce-gigant Alibaba Jack Ma udtalte i 2016, at inden for de næste tre årtier ville vi på mange områder kunne bevæge os fra markedsøkonomi til planøkonomi.

Hans holdning er ikke så overraskende, for han lever jo af IT. Men han har en vigtig pointe, fordi han taler ud fra en særlig erfaring. Hans formue er skabt via den planøkonomi, hvormed hans virksomhed, Alibaba, styres.

Netop inde i et firma finder vi et økonomisk system, hvor beslutninger om produktion på mange områder tages i et centraliseret hieraki. Et er at finde den rette balance mellem forskellige typer input i produktionsprocessen inde i et firma, således at omkostninger minimeres, hastigheden accelerer, kvalitet optimeres og så videre. Noget andet er at forudse et helt markeds efterspørgsel efter firmaets produkter. På begge områder har produktion og drift i virksomheder undergået en revolution på grund af moderne IT, som har mindsket de interne transaktionsomkostninger væsentligt.

Der indsamles i dag væsentligt flere data fra alle aspekter af produktionen. Kunderne giver konstant feedback både fra brugen af det købte produkt og fra markedsføringskampagner på sociale medier. Alle disse data kan behandles gennem cloud computing med avanceret AI, som virksomheden ofte selv ikke behøver at investere i men kan leje som en tjeneste ligesom husleje og bogføringsassistance. AI er dermed en variabel omkostning, som virksomheden kan skrue op og ned for efter behov.

Giganter som Alibaba og Amazon har lært at mestre anvendelse af moderne IT. Ikke blot til at effektivisere driften på det overordnede plan men også – helt konkret – ved planlægning og allokering af produktionsinput som køb af råvarer, hyring af arbejdskraft og finansiering. Store IT-systemer sørger for hurtigere produktion og levering til lavere priser. Produktiviteten stiger og priserne falder.

Alle, særligt forbrugere, burde være glade. Og alle er glade – måske på nær dem, der leverer det input, som den øgede effektivitet presser prisen på og måske helt udkonkurrerer. Alibaba og de andre tech-giganter vil fortsætte med effektivere drift og nedsætte omkostningerne ved deres virksomhed. Men denne effektivisering afspejles ikke nødvendigvis i deres egne priser og vilkår overfor leverandører og kunder. Hvis resten af samfundet skal fortsætte med at nyde godt heraf, skal den videre udviklingen ske i et marked med konkurrence. Tech-giganter søger som andre virksomheder i uregulerede markeder at opnå monopoler, og en af de vigtigste opgaver for Margrete Vestager i EU-kommissionen bliver derfor at regulere de datamonopoler, der opstår som følge af øget indsamling og behandling af data.

Helt ubegribeligt vil det blive, hvis softwaren til den altvidende computer så også skal forfølge politiske mål. Ikke blot er input dynamisk, det er reglerne for output også
_______

Er samfundsøkonomien for kompleks til at lade sig styre?
Men verden udenfor virksomheden, særligt for store, multinationale selskaber, er kompleks i en stadigt stigende grad. Danmarks og verdens samfundsøkonomi er af en helt anden størrelse og kompleksitet end Amazons virksomhedsøkonomi.

Og ikke blot er variablerne i samfundsproduktionen større, den består også af væsentlige flere produkter og tjenester. Det er så udbuddet. Efterspørgslen er derudover helt anderledes svær at forudsige end for Amazons – trods alt begrænsede – varesortiment. Et samfunds økonomi består af så mange andre produkter og tjenester, som ikke udveksles alene på grund af deres priser, fordi udbud og efterspørgsel i en stor del af den offentlige sektor jo på ingen måde reguleres af en prismekanisme men efter andre kriterier.

Og så er der spørgsmålet om, hvilket algoritmer skal indlejres i den AI, som skal køre på computerne, som skal styre vores samfundsøkonomi. Hvis vi altså starter med at forudsætte, at der findes nok tilgængelige data til at afspejle alle præferencer i det økonomiske system.

Allerførst skal det ønskede output af beregningen jo defineres. Målet er måske ikke så svært at definere, når der er tale om en virksomhed: Profitmaksimering. Men så nemt er det måske ikke engang selv med enkeltstående virksomheder, hvor der i dag tales om interessent eller “stakeholder”-kapitalisme, bæredygtighed og så videre, og hvor virksomhedens handlerum jo i høj grad er begrænset af ekstern regulering. Sidste år udtalte Business Roundtable, en sammenslutning af den største amerikanske selskabers administrerende direktører, at et firma ikke kun bør styres i aktionærernes interesse, men at medarbejderes, fællesskabers, leverandører og kunders interesser også bør varetages.

Verden er kompleks, og den bliver hele tiden mere kompleks. Tænk på biologien: Lige som vi tror, at vi forstår den grundlæggende menneskelige biologi, når det menneskelige genom er kortlagt, går det op får os, at vores gener interagerer med en tarmflora på mange milliarder af bakterier, hvis gener vi så også bliver nødt til at sekventere. Og så er der hele epigenitikken, der har introduceret endnu et niveau af kompleksitet. Når først vi kender vores DNA, så skal vi forstå, hvorledes dets funktioner påvirkes på forskellige måder af, hvordan dets informationer kommunikeres videre i en større og social kontekst. Dertil kommer, at man med rette kan argumentere for, at sociale systemer er endnu mere komplekse end de rent biologiske. Kompleksiteten er helt ufattelig. Som vist nok Sokrates, Platon eller Aristoteles allerede indså: Jo mere viden, vi opnår, des mindre opdager vi, at vi ved.

Data i dynamiske samfundsøkonomiske systemer vil derfor vokse og vokse i omfang og mængde. Hver gang et målepunkt er udtømt, finder man nye, og de oprindelige data vil samtidigt være blevet ændret og skal nu opdateres. Helt ubegribeligt vil det blive, hvis softwaren til den altvidende computer så også skal forfølge politiske mål. Ikke blot er input dynamisk, det er reglerne for output også. I politik er målsætninger ofte bevist gjort umålelige, og så politik hele tiden foranderlig.

I Jorge Luis Borges’ novelle “On Rigor in Science” opstilles en perfekt digitaliseret kopi af den analoge verden. Måske er det nødvendigt, hvis vi skal kunne bygge den guddommelige computer? Pointen er helt reel: Selv hvis Moores lov forsætter ufortrødent i mange år, er det umuligt at forestille sig, at noget IT-system vil blive i stand til indsamle alle relevante data og behandle dem, selv med den mest avancerede AI, på en sådan måde, at politikere bare fra Christiansborg eller deres embedsfolk fra Slotsholmen kan planlægge og styre blot den danske samfundsøkonomi. Økonomi er ganske enkelt for kompleks til noget nær fuldstændig central styring.

 Fokus bør derfor snarere være på at benytte ny teknologi til at få markedet til at fungere
_______

Hvem lærer af hvem?
Der er derfor ikke noget alternativ til at lade markedet styre økonomien – vel at mærke, hvis styremålet er øget vækst og højere produktivitet. Decentrale markeder, her forstået både som dem, der reguleres via prismekanismen, og dem som foregår på grundlag af andre institutioner som familier, venskaber og i civilsamfundet generelt, vil fortsat være helt afgørende for fordeling af samfundets ressourcer bedst muligt. Fokus bør derfor snarere være på at benytte ny teknologi til at få markedet til at fungere.

IT har altid danset mellem centralisering og decentralisering af informationshåndtering. For et par årtier siden blev menneskers manuelle, decentrale brug af regnemaskiner udskiftet med store centrale computere (“Mainframes”), der derefter blev erstattet af decentral anvendelse af personlige computere. Internettet spredte de enkelte punkter for afsendere og modtager af data i det gamle hierarkisk opbyggede kommunikationsnetværk (med én kommandocentral) ud i et nyt distribueret netværk af punkter med ligeværd, hvor nogle dog med Orwell’s udtryk er mere lige end andre. Cloud computing centraliserede så igen computerkraft og opbevaring af data ved at placeret det på få enorme serverfarmes. Og der er vi i dag.

Nu svinger pendulet – helt forudsigeligt – igen mod decentralisering. Den nyeste IT består af distribuerede databaser, hvor alle noder eller punkter i netværker opbevarer data, den såkaldte Blockchainteknologi. Disse noder er alle de små IoT-sensorer, der ikke blot indsamler data, men også behandler dem med den kæmpe computerkraft, som selv bittesmå chips besidder i dag. Noderne koordinerer deres handlinger via programmer, der fungerer som en form for automatiserede aftaler, såkaldte “smart contracts”. Den seneste generation af mobil datateknologi (5G) er bygget til, at disse milliarder af bittesmå ”ting” kan forbindes direkte til Internettet. Netop derfor betegnelse: ”Internettet af Ting”.

Blockchainteknologi er særligt kendetegnet ved, at den enighed, som alle datapunkterne, eller netværksnoderne, altid skal nå til, netop ikke er afledt fra ét centralt sted. Nej, tværtimod er softwaren, som regulerer netværket, bygges således op, at givet en tilstrækkelig grad af decentralisering med et tilstrækkeligt antal noder, der kører det samme software, så vil der altid opnås konsensus om “sandheden” i systemet. Der er mange forskellige konsensusmekanismer i forskellige blockchainsystemer, men fælles for dem alle er, at deres algoritmer inkorporerer avanceret spilteori og sandsynlighedsregning, der betyder, at alle i netværket stoler på systemet. Man taler om “trustless technology”.

Hvorledes en konsensusmekanisme rent faktisk virker – altså: hvorledes man, uden styring, kan blive enige om noget, synes for mange – også denne artikels forfatter – som ren magi. Og dog. Er den tætteste analogi til denne form for decentral “styring” ikke netop prismekanismen i et velreguleret – eller for at blive i analogien, dygtigt programmeret – marked? Ironien er altså, at den nye teknologi ikke bør få os til at drømme om planøkonomi men snarere om markedsøkonomi. ■

Kilde Ræson 26. April 2020 https://www.raeson.dk/2020/martin-von-haller-gronbaek-kan-computerne-styre-samfundsokonomien/

Leave a Reply

Your email address will not be published. Required fields are marked *