Vad är AI, egentligen?

En kulturell och praktisk introduktion för designers

Detta är det första kapitlet i Element AIs Foundations Series om AI-First Design (AI1D). Varje kapitel syftar till att definiera komponentdelarna i AI1D för att skapa ett gemensamt språk för att utforska denna nya era av design. Du kan läsa introduktionen till serien här och registrera dig för att hålla dig anpassad till nästa kapitel här.

Varför ska du som designer behöva förstå konstgjord intelligens? Det är en term som bandas om så mycket i media- och teknikkretsar på senare tid, en slags fångst som kan beskriva allt från virtuella personliga assistenter, robotar, sci-fi-karaktärer eller den senaste djupinlärningsalgoritmen. Kanske arbetar du i AI och du har en mer nyanserad förståelse för dessa distinkta fält, eller känner du bara att ditt arbete påverkas på något sätt av AI under de kommande åren, men du är inte riktigt säker på hur.

Med detta i åtanke, välkomna till det första kapitlet i vår AI-First Design Foundations-serie, där vi syftar till att spika ner språket för konstgjord intelligens och diskutera dess många definitioner. På så sätt hoppas vi att landa på en idé om vad konstgjord intelligens är idag, från vilken vi kan bygga mot att svara: Vad är AI-First Design?

Detta kapitel ägnas åt att undersöka det aktuella AI-landskapet och navigera i de olika definitionerna som AI har sett sedan termen först myntades. Vi granskar AI: s historia, undersöker toppar och lågheter i popularitet och belyser de viktigaste milstolparna sedan den senaste tidens ökning i AI-framgångar. Slutligen kommer vi att granska AIs många definitioner och några av de utmaningar vi möter när vi kommer fram till en som alla kan komma överens om. Heads up: det är på längre sida, så bli bekväm, hoppa vidare till ett avsnitt som kan intressera dig mer, eller bara läsa den här super korta versionen nedan.

TL; DR

I stället för att starta vår undersökning av AI på 1950-talet börjar vår tidslinje mycket tidigare, i Homers Iliad, när vi redan letade efter att införa statyer och gudar med mänskliga liknande egenskaper. Mycket har hänt sedan dess! Idag har vi nått en högsta tidpunkt när det gäller AI: s hastighet på förskott, finansiering och entusiasm, även om det fortfarande finns ett brett gap mellan vetenskapliga förväntningar och verkligheten i vad som kan uppnås med maskiner. AI förblir mycket långt ifrån att nå mänsklig liknande allmän intelligens, men blir bättre och bättre på att utföra snävt definierade uppgifter. Här är de viktigaste komponenterna i hur vi definierar AI idag och varför det är viktigt för dig som designer:

  1. Det är till stor del baserat på data.
    Nya framsteg i AI skulle inte ha varit möjligt utan de enorma mängder data som samlas in av alla våra anslutna enheter och möjligheten att lagra den.
  2. Det är smalt och mycket fokuserat.
    AI är mycket bra på att hitta mönster i data och utföra specifika uppgifter som vi har definierat, men generaliserar inte särskilt bra utanför fördefinierade parametrar.
  3. Det är oberörd med resultatet av dess beräkningar.
    Till skillnad från den mänskliga beslutens inneboende rörelse, påverkas inte en AI: s förmåga att fatta beslut av yttre motiv eller hur mycket sömn den fick i går kväll, utan är enbart fokuserad på uppgiften. Eftersom det inte vet bra från dåligt, föredras emellertid alla fördomar som finns i uppgifterna.
  4. AI: s förmågor är lärda, inte programmerade.
    AI kan förbättra iterativt på egen hand - utan att programmeras varje steg på vägen, kan det lära av sina erfarenheter och förbättra att fatta framtida förutsägelser och beslut, vilket resulterar i alltmer sofistikerade förmågor.
  5. Det är en utvecklande term.
    AI definieras olika av olika samhällen och dess definition kommer att fortsätta att förändras med framtida tekniska framsteg.

Genom att veta detta tror vi att AI kommer att ha en enorm inverkan på designfältet som vi känner till det. När det börjar påverka utformningen av alla företag, produkter, tjänster och (användar) upplevelser, är det viktigt att vi har en grundläggande förståelse för vad vi arbetar med och beslutar hur vi vill utnyttja dess potential.

Fortfarande nyfiken? Det finns mer åt det!

Upp- och nedgångar av AI genom tiden

Prekursorer: en önskan att förfalska gudarna

Även om vi vanligtvis avbildar något futuristiskt när vi tänker på AI, har idén funnits i århundraden. Cirka 750 f.Kr. i Homers Iliad, till exempel skapade den förkrossade Hephaestus automater för att hjälpa honom att ta sig runt:

Dessa är gyllene och ser ut som levande unga kvinnor. Det finns intelligens i deras hjärtan, och det finns tal i dem och styrka, och från de odödliga gudarna har de lärt sig hur man gör saker.

I sin bok Machines Who Think beskriver Pamela McCorduck en mängd andra varelser som Hephaestus skapade för olika uppgifter, åtminstone en av dem är säkert bekant, om en smula hotar: Pandora och hennes ökända ruta.

Mekanisera tankar

Utöver dessa exempel på fiktion fanns det viktiga framsteg i resonemang och logik i antiken som ledde till vårt nuvarande kodifierade språk som grund för all datoranvändning. Konstgjord intelligens antar i huvudsak att tanken kan mekaniseras och reproduceras. Aristoteles var en av de första som pionjärer organiserade tankar i logiska argument för att utveckla syllogism, som ofta tar en tre-raderad form, såsom:

Alla män är dödliga.
Sokrates är en man.
Därför är Sokrates dödligt.

Den persiska matematikern Muhammad ibn Musa al-Khwarizmi, också känd under sitt latiniserade namn Algoritmi (från vilket vi härledde ordet algoritm), är också en nyckelfigur i många av de begrepp vi tar för givet i AI idag. Ordet algebra, till exempel, härleds från "al-jabr", en av de två operationerna som han använde för att lösa kvadratiska ekvationer. Ytterligare framsteg genom 1600-talet av matematiker och filosofer som Gottfried Wilhelm Leibniz, Thomas Hobbes, René Descartes byggde på dessa fundament och syftade till att tänka lika systematiska som algebra eller geometri.

Även om det fanns många andra matematiska framsteg under de följande århundradena som bidragit till modern konstgjord intelligens, sticker den engelska matematikern Ada Lovelace från 1800-talet ut för hennes kreativa tillvägagångssätt och banbrytande arbete inom datoranvändning. Hon var den första som antydde att Charles Babbages mekaniska allmänna dator, den analytiska motorn, skulle kunna ha kapacitet utöver beräkningen, och fortsatte sedan med att skapa sin första algoritm, där hon fick titeln världens första datorprogrammerare.

Födelsen av konstgjord intelligens

Även om vi såg framsteg inom datorer under det tidiga 1900-talet, tog artificiell intelligens verkligen fart på 1950-talet, med en konferens vid Dartmouth College 1956 som hävdade att allt lärande och intelligens kunde beskrivas exakt nog för att simuleras av en maskin. Det var här som termen "konstgjord intelligens" först myntades, med hänvisning till "simulering av mänsklig intelligens med maskiner". När han reflekterade över Dartmouth-verkstaden 50 år senare, musikerade en av arrangörerna John McCarthy: ”Jag skulle ha trott att verkstaden skulle ha varit känd för de resultat som den gav. Det blev i själva verket känt i betydande grad helt enkelt för att det populariserade termen "konstgjord intelligens". ”

Den andra stora AI-milstolpen från 50-talet som du kanske känner till är den berömda "Turing Test". Populärt av Benedict Cumberbatchs föreställning i The Imitation Game föreslog den brittiska datavetenskapsmannen Alan Turing att om en maskin kunde föra en konversation som inte kan skiljas från en konversation med en människa, så var en "tänkande maskin" trolig. Med andra ord skulle en dator vara intelligent endast om den kunde lura en människa att tro att den var mänsklig.

Det som följde från mitten av femtiotalet under början av 70-talet kallades AI: s "gyllene år", med stora framsteg inom datoranvändning och ökningar av både entusiasm och statlig finansiering. Specifikt höll Marvin Minsky fart på Dartmouth-verkstaden när han grundade Massachusetts Institute of Technology: s AI-laboratorium 1959 och fortsatte att leda fältet under 60- och 70-talet. Gaming började också avslöja sig som ett idealiskt sätt att utveckla och testa datainformation, med IBM som utvecklade ett program som kunde spela checkar 1951. På 60-talet skapades den "närmaste grann" -algoritmen i ett försök att lösa den "resande säljaren problem ":" Med tanke på en lista över städer och avståndet mellan varje par av städer, vad är den kortaste möjliga rutten som besöker varje stad exakt en gång och återvänder till ursprungsstaden? "Den resulterande algoritmen bildade början på grundläggande mönsterigenkänning.

1969 publicerade emellertid Marvin Minsky och Seymour Papert Perceptrons, en bok som diskuterade några av begränsningarna i befintlig neuralt nätverksteknologi, och var kanske en föregångare av "AI-vintern" under följande år.

AI vintrar på 70- och 80-talet

Med en så framgångsrik körning från 50-talet till 70-talet, drivs inte bara av vetenskapliga framsteg utan också förhöjda offentliga förväntningar som vårdats av science fiction som Stanley Kubricks 2001 A Space Odyssey, eller Isaac Asimovs I, Robot, en kollisionskurs med begränsningar av AI var oundvikligt.

I huvudsak, när datorerna inte kunde uppfylla allas orealistiska höga förväntningar, torkades finansiering och entusiasm, vilket ledde till demontering av AI-laboratorier runt om i världen. Även om det fanns en kort andra vind från 1980 till 1987 med en stor investering från Japan, var denna boom kortvarig och bokades av en annan AI-vinter från 1987 till 1993.

Roger Schank och Marvin Minsky, ledande AI-forskare som hade överlevt den första vintern på 1970-talet, varnade näringslivet för att ”entusiasm för AI hade spiralats ut ur kontroll på 80-talet och att besvikelsen säkert skulle följa.” Dessa toppar och dalar i AI-entusiasm fortsätter idag. Även om det har funnits några opopulära användningar av AI under de senaste åren, till exempel den amerikanska arméns användning av AI för att identifiera vänliga eller fiendens stridsvagnar, eller mer nyligen Microsofts Tay chatbot, som snabbt uppvisade rasistiska och antisemitiska beteenden på Twitter förra året, i allmänhet talar du, kan du säga att vi idag är på en högsta nivå när det gäller AI-framsteg, finansiering och entusiasm.

AI-landskap idag - varför så varmt?

Ett populärt verktyg för att mäta teknisk hype är Gartners Hype Cycle, som i år har djup inlärning och maskininlärning som högsta. Även om det ofta betraktas som en indikator på mediatäckning än vetenskaplig forskning, finns det några legitimt spännande framsteg som har lett till AI: s nuvarande popularitet. Så är det faktiskt allt hype? Inte riktigt. Låt oss undersöka några viktiga AI-milstolpar från de senaste sex åren som har bidragit till vår nuvarande besatthet.

Senaste AI-milstolpar

  • 2011: Apples Siri introduceras, med något naturligt språk för att svara på frågor, göra rekommendationer och utföra enkla åtgärder, eller om du inte gör det, leta upp saker på internet åt dig.
  • 2012: Convolutional Neural Networks (CNNs för korta) förstör tävlingen vid ImageNet-klassificeringen - bland annat de "årliga olympiska spelen för datorvision" - skapar en våldsamhet i samhället och släpper ut ett stort återupplivande av intresse för djup inlärning.
  • Google tränar ett neuralt nätverk för att framgångsrikt känna igen katter i YouTube-videor med hjälp av en djup inlärningsalgoritm, trots att de inte matas någon information om att särskilja söta kattfunktioner.
  • 2013: NEIL, den underhållande namngivna Never Ending Image Learner, släpps vid Carnegie Mellon University för att ständigt jämföra och analysera förhållanden mellan olika bilder, i syfte att lära sig den oh-så-önskvärda men ändå svårfångade mänskliga förmågan av sunt förnuft.
  • 2015: Facebook börjar rulla ut DeepFace, ett djupt inlärningssystem för ansiktsigenkänning som utbildades på fyra miljoner bilder som laddats upp av Facebook-användare. Den kan identifiera ansikten med 97,35% noggrannhet, en förbättring med mer än 27% jämfört med tidigare system.
  • 2015: Deep Q Networks av DeepMind lär sig att spela Atari-spel, vilket markerar början av ålder för djup förstärkning.
  • 2015–17: Google DeepMinds AlphaGo besegrar Go-mästarna Fan Hui, Lee Sedol och Ke Jie, världens aktuella nummer 1-rankade.
  • 2015: Google DeepDream får alla att undra om maskiner kan skapa konst, generera trippy bilder med hjälp av ett invändigt neuralt nätverk, mjukvara som är utformad för att upptäcka ansikten och andra mönster i bilder med målet att automatiskt klassificera bilder.
  • 2015-nutid: Konstnären Ross Goodwin utforskar nya former av berättad verklighet med maskininlärning med sin poetiska ”automatiska foto” -berättare Word Camera och programmerade den självtitulerade AI “Benjamin” för att skriva ett manus för en film med David Hasselhoff i huvudrollen.
  • 2015-nu: En rad AI-personliga assistenter introduceras till hemmet, där Apples Siri nu kämpar med Microsofts Cortana, Amazons Alexa och Google Now för din uppmärksamhet.
  • 2017: Libratus, designad av Carnegie Mellon-professor Tuomas Sandholm och hans gradstudent Noam Brown vann mot fyra toppspelare på den komplexa versionen av poker - Texas Hold'em.
  • 2017: Googles Deepmind och skaparna av multiplayer-rymdkrigs-videospel StarCraft II har släppt verktygen för att låta AI-forskare skapa bots som kan tävla mot människor. Botsna har inte vunnit ännu och förväntas inte göra det ett tag, men när de gör det kommer det att bli en mycket större prestation än att vinna på Go.

Framsteg inom maskininlärning och djupt lärande

Där AI-utövarna bor

Alla dessa milstolpar skulle inte ha varit möjliga utan stora framsteg inom de mest spännande områdena av konstgjord intelligens under det senaste decenniet: maskininlärning och djup inlärning. Även om dessa termer låter lika är de inte riktigt samma. Låt oss klargöra.

Från och med slutet av 90-talet och början av 2000-talet innebar ökad datalagring och bearbetningskapacitet att AI-system äntligen kunde hålla tillräckligt med data och utnyttja tillräckligt med kraft för att hantera mer komplexa processer. Samtidigt skapade explosionen i internetanvändning och anslutning en ständigt ökande mängd data, till exempel bilder, text, kartor eller transaktionsinformation som kan användas för att träna maskiner.

I stället för det tidigare programmatiska systemet med ”om-då” -regler och komplicerade symboliska logikförfaranden som kräver tusentals kodrader för att vägleda grundläggande beslut som i god gammaldags konstgjord intelligens, eller GOFAI, fungerar maskininlärning bakåt. Med hjälp av enorma datasätt lär sig algoritmer iterativt och letar efter mönster för att känna till framtida insatser. Maskininlärning sammanfattades snyggt av maskininlärningspionjären Arthur Samuel, som långt tillbaka 1959 beskrev det som "studiefältet som ger datorer förmågan att lära sig utan att uttryckligen programmeras." Maskininlärning används för att adressera ett brett spektrum av problem idag, till exempel att identifiera cancerceller, förutsäga vilken film du kanske vill titta på nästa, förstå alla typer av talat språk eller bestämma marknadsvärdet för ditt hus.

Vilka är cancercellerna i den här bilden? En AI kanske kan ta reda på det snabbare än en läkare. Bild: Gabriel Caponetti i populärvetenskap.

De senaste framstegen inom maskininlärning beror till stor del på tillväxten av djupt lärande - ett underfält för maskininlärning. Djupt lärande lånar från hjärnans struktur genom att länka massor av enkla "neuron" som strukturer tillsammans för att göra intressanta saker i ett neuralt nätverk. Genom att stapla många lager av dessa konstgjorda nervceller tillsammans (därmed "djupa") kan nätverket som helhet lära sig att utföra komplexa uppgifter. Intressant nog hamnar neuroner i dessa lager ofta specifika roller, såsom att känna igen kanter eller konturen av ett specifikt objekt. Den unika styrkan med djup inlärning är att dessa deluppgifter - ofta kända som "funktioner" - lärs direkt från data, snarare än att de anges av programmerare. Detta tillåter djup inlärning för att ta itu med problem där lösningarna inte är uppenbara för människor.

Låt oss ta ett verkligt exempel: igenkänna cancerceller. En klassisk AI-strategi skulle förlita sig på en mänsklig expert som försöker destillera sin egen beslutsprocess och sedan kodifiera den i algoritmen. Vi kan till exempel flagga celler som är större än en viss storlek, eller har en dunig kontur, eller en speciell form. Med djup inlärning kan vi emellertid direkt mata bilder av celler som är märkta för att indikera om de är cancer eller inte, och vårt nervnätverk kommer att lära oss att välja ut de mest användbara funktionerna i bilden för just denna uppgift. Detta är ett klassiskt exempel på ”övervakad inlärning”: vi tillhandahåller några ingångar och några önskade utgångar, och algoritmen lär sig att kartlägga från en till en annan.

Vi kan också helt undanröja etiketterna och be algoritmen att gruppera cellerna som har något gemensamt. Den här processen kallas klustering, och det är en typ av undervisning utan tillsyn. Här tillhandahåller vi inte övervakning i form av etiketter, vi använder helt enkelt djup inlärning för att hitta strukturen i uppgifterna. I vårt exempel är kanske våra celler många olika typer - hudceller, leverceller och muskelceller - och det skulle vara användbart att klustera dessa innan vi försöker ta reda på vilka celler i varje kluster som är cancerformiga. Andra vanliga applikationer för kluster inkluderar att identifiera olika ansikten i dina foton, förstå olika typer av kunder och samla nyheter om samma ämne.

Tro inte hypen: AI Myths vs. Realities

Så med alla dessa snabba framsteg inom AI de senaste åren, skulle du tro att vi alla skulle pumpas om det rätt? Tja, inte alla. Precis som i de första gyllene åren av AI på 50- och 60-talet finns det fortfarande ett brett gap mellan våra förväntningar på AI baserat på skildringar i science-fiction och media, och vad AI faktiskt kan i dag. (För att inte tala om den frodiga rädslan för störningar, oro för privatlivet eller förlust av arbetstillfällen i samband med dessa förutsägelser.)

Ett annat sätt att inrama denna diskussion är skillnaden mellan "smal" och "allmän" konstgjord intelligens. Många av AI: s största framgångar hittills har varit ”smal” konstgjord intelligens, d.v.s. att utföra en specifik uppgift inom strikta parametrar, till exempel att Siri skriver ett dikterat textmeddelande för dig eller känner igen en katt i en bild. Det finns ingen uppfattning om självmedvetenhet eller allmän problemlösningskompetens i snäva AI. Omvänt, mycket av det som har fångat allmänhetens fantasi under decennier har varit denna fantasi om "allmän konstgjord intelligens" i form av en mänsklig-liknande assistent, liknande Hal 9000, R2D2 eller Samantha in Her, där AI har lika, om inte större intelligens än människor.

För att vara mycket tydliga är vi långt borta från allt som liknar allmän AI. Yoshua Bengio, en av grundarna av Element AI, är uttrycklig när han talar om detta ämne - han tror inte att det är rimligt att göra en tidsbaserad förutsägelse om när detta kan hända. I ett samtal som nyligen beskrev han några specifika skäl till varför vi inte är där ännu, det första var att alla industriella AI-framgångar hittills har baserats rent på övervakat lärande. Våra inlärningssystem är fortfarande ganska enkla, eftersom de förlitar sig på ytliga ledtrådar i data som inte klarar sig bra utanför träningssammanhang.

Googles neurala netgenererade hantlar, komplett med fantomlemmar. Bild: Google.

När Google till exempel tränade ett neuralt nätverk för att generera bilder av hantlar baserade på tusentals bilder, fick det nästan rätt. Visst, vi har två vikter anslutna med en bar, men vad gör de fantomarmarna där inne? Även om det neurala nätverket lyckades identifiera de gemensamma visuella egenskaperna för hantlar, eftersom källbilderna alltid innehöll människor som håller hantlar, antog det också att hantlar har armar.

Trots så betydande begränsningar, för att höra Elon Musk spara med Mark Zuckerberg den senaste sommaren, skulle du tro att ett AI-drivet världskrig III var runt hörnet. Vår VD Jean-François Gagné tar oss tillbaka till grunderna om AI: s nuvarande tillstånd i ett nyligen blogginlägg:

”AI är väldigt smal och ömtålig. Den fungerar inte bra utanför den omfattning den är inställd för. Den kan bara hantera enkla objektiva funktioner; så det är verkligen oss, människorna, som använder vår mänskliga intelligens för att tillämpa den effektivt till den punkt där ett jobb kan automatiseras. ”

AI: s många definitioner

Nu när vi har gjort det snabbare med den historiska utvecklingen och de senaste framstegen i AI, låt oss granska de många definitionerna som vi har kommit fram till för att beskriva det genom åren. Medan vissa har hävdat att begreppet är så överanvänt på senare tid att det har blivit meningslöst, är vi inte riktigt villiga att ge upp det.

Hur termen ”AI” används idag

För att definiera AI, låt oss börja med att undersöka intelligens. Å ena sidan kan du ta en förenklad uppfattning om intellekt, till exempel baserat på en IQ-poäng. Men vi vet alla att intelligens i själva verket är mycket mer lager och komplex. Oxford Dictionary definierar det som: "förmågan att förvärva och tillämpa kunskap och färdigheter", medan Cambridge Dictionary: s synsätt är lite annorlunda: "förmågan att lära sig, förstå och göra bedömningar eller ha åsikter som är baserade på förnuft." Andra har utvecklat mer nyanserade sätt att mäta intelligens genom åren, till exempel Howard Gardners teori om flera intelligenser, med modaliteter som musikalisk-rytmisk och harmonisk, visuell-rumslig, verbal-språklig, logisk-matematisk, kroppslig-kinestetisk och existentiell , bland andra. Vårt tag på det är närmare denna sista definition, vilket möjliggör förvärv, bearbetning och tillämpning av information inom ett brett spektrum av sammanhang.

Vår idé om intelligens är också väldigt antropomorf: den bygger på hur vi som människor tänker på och löser problem. AI förstås allmänt på samma sätt genom att ett konstgjordt intelligent system drar slutsatser på ett sätt som liknar en människas synsätt. Med utgångspunkt i denna idé presenterar David C. Parkes och Michael P. Wellman idén om AI som "homo Economicus, den mytiska perfekt rationella agenten för neoklassisk ekonomi." Men det är frestande att tro att vi kan tänka oss en perfekt rationell enhet, data som används för att träna AI är ofta iboende felaktiga, på grund av mänsklig eller annan partiskhet, vilket gör "perfekt rationalitet" nästan omöjligt att utvärdera.

En rapport från Vita huset 2016 om AI sammanfattar utmaningarna med en sammanhängande definition: ”Det finns ingen enda definition av AI som är allmänt accepterad av utövare. Vissa definierar AI löst som ett datoriserat system som visar beteende som vanligtvis anses kräva intelligens. Andra definierar AI som ett system som kan rationellt lösa komplexa problem eller vidta lämpliga åtgärder för att uppnå sina mål under de verkliga omständigheter det möter. ”Det är intressant att notera att de inte använder uttrycket” mänskligt beteende ”här, utan helt enkelt "beteende".

Den svenska filosofen Nick Bostrom fokuserar på begreppet lärande och anpassning i AI i sin bok Superintelligence: Paths, Dangers, Strategies: ”En kapacitet att lära skulle vara en integrerad del av kärnkonstruktionen i ett system som är avsett att uppnå allmän intelligens ... Samma håller för förmågan att hantera osäkerhet och sannolik information. Andra, som datatekniker professor Ethem Alpaydın i en introduktion till maskininlärning, säger att ”ett intelligent system bör kunna anpassa sig till sin miljö; den borde lära sig att inte upprepa sina misstag utan att upprepa sina framgångar. ”

Våra definitioner

Förutom att undersöka hur andra definierar AI idag, involverades en del av vår forskning också att skicka ut en företagsomfattande undersökning där vi bad våra kollegor definiera artificiell intelligens, i en mening (eller två eller tre). I undersökningsresultat framkom tre huvudsakliga svarkategorier:

  1. AI är en dators förmåga att fatta beslut eller förutsäga, baserat på tillgängliga data.
  2. AI är en dators förmåga att replikera hjärnfunktioner av högre ordning såsom uppfattning, kognition, kontroll, planering eller strategi.
  3. AI är ett program skapat av data och beräkning, dvs inte hårdkodat.

Är våra definitioner tillräckliga för våra ändamål idag? Vad är några fallgropar i försöket att definiera ett så brett och ständigt utvecklande koncept?

Varför är det så svårt?

"Catchall" -fenomenet är en av de största utmaningarna när vi pratar om AI. Frekvent användning av termen har resulterat i ett brett spektrum av applikationer och inneboende förvirring, vilket förklaras av Genevieve Bell, doktorand vid Stanford i antropologi och direktör, interaktion och erfarenhetsforskning på Intel:

"För mig är konstgjord intelligens ett begrepp och det är en som cyklas in och ut ur popularitet. Det är tillbaka just nu. Det är ett paraplytermer under vilket du kan prata om kognitiv datoranvändning, maskininlärning och djupinlärning och algoritmer. Det är ett fångst eftersom det betyder allt och ingenting samtidigt. Det är en kulturell kategori lika mycket som en teknisk kategori. "

Termen används ofta under felaktiga omständigheter (eller snarare ogynnsamma omständigheter) eftersom det är så brett, som beskrivs i detta McKinsey Global Institute-diskussionsdokument 2017, AI: Nästa digitala gräns:

”... Det är svårt att fastställa eftersom människor blandar och matchar olika tekniker för att skapa lösningar för individuella problem. Ibland behandlas dessa som oberoende tekniker, ibland som undergrupper av annan teknik och ibland som applikationer ... Vissa ramverk grupperar AI-teknik efter grundläggande funktionalitet ..., vissa grupperar dem efter affärsapplikationer ...

En annan viktig utmaning när det gäller att definiera AI är att vetenskapen och dess tillämpningar ständigt utvecklas. Som Pamela McCorduck förklarar i sin bok Machines Who Think, ofta diskonteras ett intelligent system som löser ett nytt problem som "bara beräkning" eller "inte riktig intelligens". Filosof Bostrom sammanfattar detta snyggt: "Mycket avancerad AI har filtrerats in i allmänna applikationer, ofta utan att kallas AI eftersom en gång något blir tillräckligt användbart och vanligt nog är det inte märkt AI längre." Till exempel IBM-programmet som spelade brickor 1951 kanske hade betraktats som banbrytande AI vid den tiden, men skulle beskrivas som grundläggande databehandling idag. Eller mer nyligen, skulle vissa hävda att pessimistiskt att det inte finns något "intelligent" om någon "smal AI", som AlphaGo slår Lee Sedol.

Med tanke på alla dessa utmaningar, finns det ett sätt att minska det kulturella och mediernas buller som ger vår bedömning och fokuserar på konkreta frågor? När vi använder ordet "AI" hänvisar vi vanligtvis till en specifik teknik, som naturligt språkbearbetning, maskininlärning eller maskinsyn. Så att vara så specifik som möjligt är ett bra ställe att börja. Under andra omständigheter är det dock inte fel att använda termen ”AI”, till exempel i situationer där vi verkligen inte vet exakt vilken teknik som används. Det är en fälla som vi inte är immun mot att falla i, tillsammans med alla AI-utövare och journalister som driver denna pågående diskussion.

Blickar framåt

När vi försöker tydligt formulera vad AI "är" har vi upptäckt att det betyder en hel del olika saker för olika människor. Det är en idé som har fångat vår fantasi under mycket lång tid. Även om vi begränsar det till datavetenskap är det fortfarande mycket brett. Med detta i åtanke tycker vi att det är viktigt att fokusera på hur AI redan förändrar våra liv, de genombrott som idag leder till denna hype. Kevin Kelly sammanfattade detta fint i ett TED-samtal som nyligen gjorts:

”Det finns inga AI-experter just nu. Det går mycket pengar till det, miljarder dollar spenderas på det; det är ett enormt företag, men det finns inga experter, jämfört med vad vi vet 20 år från och med nu. Så vi är precis i början av början, vi är inne på den första timmen av allt detta ... Den mest populära AI-produkten på 20 år från och med nu, som alla använder, har inte hittats ännu. Det betyder att du inte är sen. "

Med andra ord, det är normalt att våra uppfattningar om AI involverar flera synpunkter och ibland motstridiga idéer eftersom det utvecklas och händer nu. Det här är inte avsett att läsas som en cop-out, utan snarare ett samtal att omfamna dess inneboende värdighet och rörighet när vi arbetar för att göra det bättre.

Allt detta för att säga, vi kommer inte att fastställa definitionen. Vi vill dock att designers som kämpar med den teknik som kommer i produktion idag ska ha en grundläggande förståelse för AI och dess kapacitet. Om "AI är vad som ännu inte har gjorts ännu", som Teslers teorem uttrycker det, är det just där vi behöver titta - inte på vad som redan har gjorts, utan på vad som är möjligt, eller mycket snart.

Vi tror att AI i sin kärna är en enorm inlärningsmöjlighet, och om den utvecklas medvetet, kan driva människor mot vidsträckta framsteg. När hästritade plogar dramatiskt revolutionerade jordbruket på 1100-talet och ångmotorer drev tillverkning och transport till en ny era på 1700-talet, ser vi AI som ligger till grund för nästa sekel av digital innovation. Som MIT-fysikprofessor Max Tegmark nyligen uttalade är det inte dags att fundera över framtiden som en förutbestämd händelse som vi oundvikligen sårar mot, utan snarare borde vi fråga oss själva: "Vilken framtid vill vi utforma med AI? ”

Om du gillade det här, leta efter nästa kapitel i vår serie AI-First Design Foundations - What is Design, Really?

Författare och bidragsgivare

Rebecca West är redaktör för AI1D Journal på Element AI och en författare med fokus på projekt i skärningspunkten mellan design, teknik och kreativitet.

Illustrationer av Dona Solo, en visuell designer på Element AI.

Med bidrag från Experience Designer Masha Krol, Applied Research Scientist Archy de Berker och vår sommaren 2017 forskarstuderande Louis-Félix La Roche-Morin.