Vad artificiell intelligens faktiskt kan göra idag
Vad artificiell intelligens faktiskt kan göra idag
Anonim

Spoiler alert: Det är fortfarande lång tid innan maskinernas uppror.

Vad artificiell intelligens faktiskt kan göra idag
Vad artificiell intelligens faktiskt kan göra idag

När Elon Musk introducerar den humanoida roboten Tesla Bot verkar det som att en ny vetenskaplig revolution är precis runt hörnet. Lite mer – och artificiell intelligens (AI) kommer att överträffa människan, och maskiner kommer att ersätta oss på jobbet. Professorerna Gary Marcus och Ernest Davis, båda kända AI-experter, uppmanas dock att inte förhasta sig till sådana slutsatser.

I Artificial Intelligence Reboot förklarar forskare varför modern teknik är långt ifrån idealisk. Med tillstånd av förlaget "Alpina PRO" publicerar Lifehacker ett utdrag ur det första kapitlet.

Vid det här laget finns det en enorm klyfta - en verklig klyfta - mellan vår ambition och den artificiella intelligensens verklighet. Denna klyfta har uppstått på grund av olösta tre specifika problem, som vart och ett måste hanteras ärligt.

Den första av dessa är vad vi kallar godtrogenhet, som bygger på att vi människor inte riktigt har lärt oss att skilja på människor och maskiner, och det gör det lätt att lura oss. Vi tillskriver intelligens till datorer eftersom vi själva har utvecklats och levt bland människor som till stor del baserar sina handlingar på abstraktioner som idéer, övertygelser och önskningar. Maskinernas beteende är ofta ytligt likt människors beteende, så vi tilldelar snabbt maskiner samma typ av grundläggande mekanismer, även om maskinerna inte har det.

Vi kan inte låta bli att tänka på maskiner i kognitiva termer ("Min dator tror att jag har raderat min fil"), oavsett hur enkla regler som maskinerna faktiskt följer. Men slutsatserna som motiverar sig själva när de tillämpas på människor kan vara helt felaktiga när de tillämpas på artificiell intelligensprogram. I vördnad för en grundläggande princip inom socialpsykologin, kallar vi detta det grundläggande giltighetsfelet.

Ett av de tidigaste fallen av detta fel inträffade i mitten av 1960-talet, när en chatbot vid namn Eliza övertygade vissa människor om att han verkligen förstod vad de berättade för honom. Faktum är att Eliza bara plockade upp nyckelord, upprepade det sista personen sa till henne, och i en återvändsgränd situation tog hon till vanliga samtalsknep som "Berätta om din barndom". Om du nämnde din mamma skulle hon fråga dig om din familj, även om hon inte hade någon aning om vad familj egentligen är eller varför den är viktig för människor. Det var bara en uppsättning tricks, inte en demonstration av sann intelligens.

Trots att Eliza inte förstod människor alls, blev många användare lurade av dialogerna med henne. Vissa tillbringade timmar med att skriva fraser på tangentbordet, prata på det här sättet med Eliza, men misstolka chatbot-tricken, missförstå papegojans tal för hjälpsamma, uppriktiga råd eller sympati.

Joseph Weisenbaum Skapare av Eliza.

Människor som mycket väl visste att de pratade med en maskin glömde snart detta faktum, precis som teaterälskare kastade bort sin misstro ett tag och glömmer att handlingen de bevittnar inte har någon rätt att kallas verklig.

Elizas samtalspartner krävde ofta tillstånd för ett privat samtal med systemet och insisterade efter samtalet, trots alla mina förklaringar, på att maskinen verkligen förstod dem.

I andra fall kan felet att bedöma äktheten vara ödesdigert i ordets bokstavliga bemärkelse. Under 2016 förlitade en ägare av en automatiserad Tesla-bil så mycket på den till synes säkerheten i autopilotläget att han (enligt historier) helt fördjupade sig i att titta på Harry Potter-filmerna och lämnade bilen att göra allt på egen hand.

Allt gick bra – tills det någon gång blev dåligt. Efter att ha kört hundratals eller till och med tusentals mil utan en olycka kolliderade bilen (i ordets alla bemärkelser) med ett oväntat hinder: en vit lastbil korsade motorvägen och Tesla rusade rakt under släpet och dödade bilägaren på plats. (Bilen verkade varna föraren flera gånger om att ta kontroll, men föraren verkade vara för avslappnad för att reagera snabbt.)

Moralen i denna berättelse är tydlig: det faktum att en enhet kan verka "smart" för ett ögonblick eller två (och till och med sex månader) betyder inte alls att den verkligen är så eller att den kan hantera alla omständigheter som en person skulle reagera adekvat.

Det andra problemet kallar vi illusionen av snabba framsteg: misstag av framsteg inom artificiell intelligens, förknippad med att lösa enkla problem, för framsteg, förknippade med att lösa riktigt svåra problem. Detta hände till exempel med IBM Watson-systemet: dess framsteg i spelet Jeopardy! verkade mycket lovande, men i själva verket visade sig systemet vara mycket längre från att förstå mänskligt språk än vad utvecklarna hade räknat med.

Det är möjligt att DeepMinds AlphaGo-program kommer att följa samma väg. Gospelet, precis som schack, är ett idealiserat informationsspel där båda spelarna kan se hela brädet när som helst och beräkna konsekvenserna av drag med brute force.

I de flesta fall, i det verkliga livet, vet ingen någonting med fullständig säkerhet; våra uppgifter är ofta ofullständiga eller förvrängda.

Även i de enklaste fallen råder mycket osäkerhet. När vi bestämmer oss för om vi ska gå till doktorn till fots eller ta tunnelbanan (eftersom dagen är mulen) vet vi inte exakt hur lång tid det tar att vänta på tunnelbanetåget, om tåget fastnar på vägen, om vi kommer att tränga in i vagnen som sill i en tunna eller så blir vi blöta i regnet utanför, inte vågar ta tunnelbanan, och hur läkaren kommer att reagera på vår försening.

Vi arbetar alltid med den information vi har. Genom att spela Go med sig själv miljontals gånger, har DeepMind AlphaGo-systemet aldrig hanterat osäkerhet, det vet helt enkelt inte vilken brist på information eller dess ofullständighet och inkonsekvens, för att inte tala om komplexiteten i mänsklig interaktion.

Det finns en annan parameter som gör att tankespel som att skilja sig mycket från den verkliga världen, och detta har återigen att göra med data. Även komplexa spel (om reglerna är tillräckligt strikta) kan modelleras nästan perfekt, så de artificiella intelligenssystemen som spelar dem kan enkelt samla in de enorma mängder data de behöver för att träna. Således, i fallet med Go, kan en maskin simulera ett spel med människor genom att helt enkelt spela mot sig själv; även om systemet behöver terabyte data kommer det att skapa det själv.

Programmerare kan alltså få helt rena simuleringsdata med liten eller ingen kostnad. Tvärtom, i den verkliga världen existerar inte helt rena data, det är omöjligt att simulera det (eftersom spelreglerna ständigt förändras), och desto svårare är det att samla in många gigabyte relevant data genom försök och fel.

I verkligheten har vi bara ett fåtal försök att testa olika strategier.

Vi kan till exempel inte upprepa ett läkarbesök 10 miljoner gånger, och gradvis justera parametrarna för beslut före varje besök, för att dramatiskt förbättra vårt beteende när det gäller transportval.

Om programmerare vill träna en robot för att hjälpa äldre (säg att hjälpa sjuka människor att lägga sig) kommer varje bit av data att vara värd riktiga pengar och verklig mänsklig tid; det finns inget sätt att samla in all nödvändig data med hjälp av simuleringsspel. Även krocktestdockor kan inte ersätta riktiga människor.

Det är nödvändigt att samla in data om riktiga äldre människor med olika egenskaper av senila rörelser, om olika typer av sängar, olika typer av pyjamas, olika typer av hus, och här kan du inte göra misstag, eftersom att tappa en person även på ett avstånd av flera centimeter från sängen skulle vara en katastrof. I det här fallet står det på spel ett visst framsteg (hittills det mest elementära) på detta område har uppnåtts med metoderna för smal artificiell intelligens. Det har utvecklats datorsystem som spelar nästan på samma nivå som de bästa mänskliga spelarna i tv-spelen Dota 2 och Starcraft 2, där vid varje given tidpunkt endast en del av spelvärlden visas för deltagarna och därför står varje spelare inför problem med brist på information - det med Clausewitz lätta hand kallas "det okändas dimma". De utvecklade systemen är dock fortfarande mycket snävt fokuserade och instabila i drift. Till exempel har AlphaStar-programmet som spelar i Starcraft 2 bara lärt sig en specifik ras från en mängd olika karaktärer, och nästan ingen av dessa utvecklingar är spelbara som någon annan ras. Och det finns naturligtvis ingen anledning att tro att metoderna som används i dessa program är lämpliga för att göra framgångsrika generaliseringar i mycket mer komplexa verkliga situationer. verkliga liv. Som IBM har upptäckt inte en, utan redan två gånger (först i schack, och sedan i Jeopardy!), garanterar framgång i problem från en sluten värld inte alls framgång i en öppen värld.

Den tredje cirkeln i den beskrivna avgrunden är en överskattning av tillförlitligheten. Om och om igen ser vi att så fort människor med hjälp av artificiell intelligens hittar en lösning på något problem som kan fungera felfritt ett tag så antar de automatiskt att med revision (och med lite större mängd data) kommer att fungera tillförlitligt.tid. Men så är det inte nödvändigtvis.

Vi tar igen bilar utan förare. Det är relativt enkelt att skapa en demo av ett autonomt fordon som korrekt kör längs tydligt markerad körfält på en lugn väg; men människor har kunnat göra detta i över ett sekel. Det är dock mycket svårare att få dessa system att fungera under svåra eller oväntade omständigheter.

Som Missy Cummings, chef för Humans and Autonomy Laboratory vid Duke University (och en före detta stridspilot i den amerikanska marinen), sa till oss i ett mejl, är frågan inte hur många mil en förarlös bil kan färdas utan olycka. utan i omfattningen som dessa bilar kan anpassa sig till föränderliga situationer. Enligt hennes Missy Cummings, e-post till författare den 22 september 2018., moderna semi-autonoma fordon "brukar vanligtvis bara i ett mycket snävt område av förhållanden, som inte säger något om hur de kan fungera under mindre än idealiska förhållanden."

Att se helt pålitlig ut på miljontals testmil i Phoenix betyder inte att prestera bra under monsunen i Bombay.

Denna grundläggande skillnad mellan hur autonoma fordon beter sig under idealiska förhållanden (som soliga dagar på förortsvägar med flera filer) och vad de kan göra under extrema förhållanden kan lätt bli en fråga om framgång och misslyckande för en hel industri.

Med så liten tonvikt på autonom körning under extrema förhållanden och att nuvarande metodik inte har utvecklats i riktning mot att säkerställa att autopiloten kommer att fungera korrekt under förhållanden som precis börjar övervägas på riktigt, kan det mycket väl snart stå klart att miljarder dollar har spenderats på metoder för att bygga självkörande bilar som helt enkelt misslyckas med att leverera människoliknande körtillförlitlighet. Det är möjligt att för att uppnå den nivå av tekniskt förtroende som vi behöver, krävs tillvägagångssätt som är fundamentalt annorlunda än de nuvarande.

Och bilar är bara ett exempel av många liknande. I modern forskning om artificiell intelligens har dess tillförlitlighet underskattats globalt. Detta beror delvis på att de flesta av den aktuella utvecklingen på detta område innebär problem som är mycket feltoleranta, som att rekommendera reklam eller marknadsföra nya produkter.

Faktum är att om vi rekommenderar dig fem typer av produkter, och du bara gillar tre av dem, kommer ingen skada att hända. Men i ett antal kritiska AI-tillämpningar för framtiden, inklusive förarlösa bilar, äldreomsorg och vårdplanering, kommer mänsklig tillförlitlighet att vara avgörande.

Ingen kommer att köpa en hemrobot som säkert kan bära din äldre farfar till sängs bara fyra gånger av fem.

Även i de uppgifter där modern artificiell intelligens teoretiskt sett borde framstå i bästa möjliga ljus, inträffar det regelbundet allvarliga misslyckanden som ibland ser väldigt roliga ut. Ett typiskt exempel: datorer har i princip redan lärt sig ganska bra hur man känner igen vad som är (eller händer) i den eller den bilden.

Ibland fungerar dessa algoritmer utmärkt, men ofta ger de helt otroliga fel. Om man visar en bild för ett automatiserat system som genererar bildtexter för fotografier av vardagliga scener får man ofta ett svar som är anmärkningsvärt likt det en människa skulle skriva; till exempel, för scenen nedan, där en grupp människor spelar frisbee, ger Googles mycket publicerade undertextgenereringssystem exakt rätt namn.

Fig 1.1. Grupp ungdomar som spelar frisbee (trolig bildtext, automatiskt genererad av AI)
Fig 1.1. Grupp ungdomar som spelar frisbee (trolig bildtext, automatiskt genererad av AI)

Men fem minuter senare kan du enkelt få ett helt absurt svar från samma system, som t.ex. hände med denna vägskylt, på vilken någon klistrat klistermärken: datorn som heter Skaparna av systemet förklarade inte varför detta fel inträffade, men sådana fall är inte ovanliga. Vi kan anta att systemet i detta speciella fall klassificerade (kanske när det gäller färg och konsistens) fotografiet som likt de andra bilderna (av vilka det lärde sig) märkt som "ett kylskåp fyllt med massor av mat och dryck." Naturligtvis förstod datorn inte (vilket en person lätt kunde förstå) att en sådan inskription skulle vara lämplig endast i fallet med en stor rektangulär metalllåda med olika (och även då inte alla) föremål inuti. den här scenen är "ett kylskåp med massor av mat och dryck."

Ris. 1.2. Kylskåp fyllt med massor av mat och dryck (helt osannolik rubrik, skapad av samma system som ovan)
Ris. 1.2. Kylskåp fyllt med massor av mat och dryck (helt osannolik rubrik, skapad av samma system som ovan)

Likaså identifierar förarlösa bilar ofta korrekt vad de "ser", men ibland verkar de förbise det uppenbara, som i fallet med Tesla, som regelbundet kraschade in i parkerade brandbilar eller ambulanser på autopilot. Sådana döda vinklar kan vara ännu farligare om de finns i system som styr elnät eller ansvarar för att övervaka folkhälsan.

För att överbrygga klyftan mellan ambition och verkligheten av artificiell intelligens behöver vi tre saker: en tydlig medvetenhet om de värden som står på spel i detta spel, en tydlig förståelse för varför moderna AI-system inte utför sina funktioner tillräckligt tillförlitligt, och, slutligen, en ny utvecklingsstrategi maskintänkande.

Eftersom insatserna på artificiell intelligens är riktigt höga när det gäller jobb, säkerhet och samhällsstruktur, finns det ett akut behov för oss alla - AI-proffs, närstående yrken, vanliga medborgare och politiker - att förstå den verkliga situationen. inom detta område för att lära sig kritiskt bedöma nivån och karaktären av utvecklingen av dagens artificiella intelligens.

Precis som det är viktigt för medborgare som är intresserade av nyheter och statistik att förstå hur lätt det är att vilseleda människor med ord och siffror, så finns här en allt viktigare aspekt av förståelsen så att vi kan ta reda på var artificiell intelligens finns. Endast reklam, men var är det på riktigt; vad han kan göra nu och vad han inte vet hur och kanske inte kommer att lära sig.

Det viktigaste är att inse att artificiell intelligens inte är magi, utan bara en uppsättning tekniker och algoritmer, som var och en har sina egna styrkor och svagheter, är lämplig för vissa uppgifter och inte lämplig för andra. En av de främsta anledningarna till att vi tänkte skriva den här boken är att mycket av det vi läser om artificiell intelligens förefaller oss vara en absolut fantasi, som växer fram ur ett ogrundat förtroende för den nästan magiska kraften hos artificiell intelligens.

Under tiden har denna fiktion ingenting att göra med moderna tekniska möjligheter. Tyvärr har diskussionen om AI bland allmänheten varit och är starkt influerad av spekulationer och överdrifter: de flesta människor har ingen aning om hur svårt det är att skapa universell artificiell intelligens.

Låt oss förtydliga ytterligare diskussion. Även om klargörandet av verkligheten förknippad med AI kommer att kräva allvarlig kritik från oss, är vi själva inte på något sätt motståndare till artificiell intelligens, vi gillar verkligen den här sidan av tekniska framsteg. Vi har levt en betydande del av vårt liv som professionella inom detta område och vi vill att det ska utvecklas så snabbt som möjligt.

Den amerikanske filosofen Hubert Dreyfus skrev en gång en bok om vilka höjder, enligt hans mening, artificiell intelligens aldrig kan nå. Det är inte vad den här boken handlar om. Den fokuserar delvis på vad AI för närvarande inte kan göra och varför det är viktigt att förstå det, men en betydande del av det talar om vad som kan göras för att förbättra datortänkandet och utvidga det till områden där det nu har svårt att göra först.

Vi vill inte att artificiell intelligens ska försvinna; vi vill att den ska förbättras radikalt, så att vi verkligen kan lita på den och med dess hjälp lösa mänsklighetens många problem. Vi har mycket kritik om det nuvarande tillståndet för artificiell intelligens, men vår kritik är en manifestation av kärlek till vetenskapen vi gör, inte en uppmaning att ge upp och överge allt.

Kort sagt, vi tror att artificiell intelligens verkligen kan förändra vår värld på allvar; men vi tror också att många av de grundläggande antagandena om AI måste ändras innan vi kan prata om verkliga framsteg. Vår föreslagna "återställning" av artificiell intelligens är inte alls en anledning att sätta stopp för forskningen (även om vissa kanske förstår vår bok i exakt denna anda), utan snarare en diagnos: var har vi fastnat nu och hur tar vi oss ifrån dagens läge.

Vi tror att det bästa sättet att gå framåt kan vara att blicka inåt, vända mot strukturen i vårt eget sinne.

Verkligen intelligenta maskiner behöver inte vara exakta kopior av människor, men alla som tittar på artificiell intelligens ärligt kommer att se att det fortfarande finns mycket att lära av människor, särskilt från små barn, som på många sätt är mycket överlägsna maskiner i deras förmåga att ta till sig och förstå nya begrepp.

Medicinska forskare karakteriserar ofta datorer som "övermänskliga" (på ett eller annat sätt) system, men den mänskliga hjärnan är fortfarande mycket överlägsen sina kiselmotsvarigheter i minst fem aspekter: vi kan förstå språk, vi kan förstå världen, vi kan flexibelt anpassa oss till nya omständigheter kan vi snabbt lära oss nya saker (även utan stora mängder data) och kan resonera inför ofullständig och till och med motstridig information. På alla dessa fronter ligger moderna artificiell intelligenssystem hopplöst bakom människor.

Omstart av artificiell intelligens
Omstart av artificiell intelligens

Artificiell intelligens: Omstart kommer att intressera människor som vill förstå modern teknik och förstå hur och när en ny generation av AI kan göra våra liv bättre.

Rekommenderad: