Hvad er AI, egentlig?

En kulturel og praktisk introduktion til designere

Dette er det første kapitel i Element AI's Foundations Series om AI-First Design (AI1D). Hvert kapitel sigter mod at definere komponentdelene i AI1D for at skabe et fælles sprog, som man kan udforske denne nye æra med design. Du kan læse introduktionen til serien her og tilmelde dig for at følge med til det næste kapitel her.

Hvorfor skal du som designer være i stand til at forstå kunstig intelligens? Det er et udtryk, der bliver bundet om så meget i medier og tech-kredse for nylig, en slags fangst, der kunne beskrive alt fra virtuelle personlige assistenter, robotter, sci-fi-tegn eller den seneste dybe læringsalgoritme. Måske arbejder du i AI, og du har en mere nuanceret forståelse af disse forskellige felter, eller måske fornemmer du bare, at dit arbejde på en eller anden måde vil blive påvirket af AI i de kommende år, men du er ikke helt sikker på, hvordan.

Med dette i tankerne, velkommen til det første kapitel i vores AI-First Design Foundations-serie, hvor vi sigter mod at negle sproget til kunstig intelligens og diskutere dets mange definitioner. Dermed håber vi at lande på en idé om, hvad kunstig intelligens er i dag, hvorfra vi kan bygge mod at svare: Hvad er AI-First Design?

Dette kapitel er dedikeret til at undersøge det aktuelle AI-landskab og navigere i de forskellige definitioner, som AI har set, siden udtrykket først blev oprettet. Vi vil gennemgå historien om AI, undersøge toppe og laveste i popularitet og fremhæve de vigtigste milepæle siden den nylige stigning i AI-succeser. Endelig vil vi undersøge AIs mange definitioner, og nogle af de udfordringer, vi er imod at komme med en, som alle kan blive enige om. Heads up: det er på den længere side, så bliv behagelig, spring videre til et afsnit, der kan interessere dig mere, eller bare læs denne super korte version nedenfor.

TL; DR

I stedet for at starte vores undersøgelse af AI i 1950'erne, starter vores tidslinje meget tidligere, i Homers Iliad, da vi allerede var på udkig efter at lægge statuer og guder med menneskelignende egenskaber. Meget er sket siden da! I dag har vi nået et højdepunkt på alle tidspunkter med hensyn til AI's hastighed, finansiering og entusiasme, selvom der stadig er et stort kløft mellem sci-fi-forventningerne og realiteterne i, hvad der kan opnås med maskiner. AI forbliver meget langt fra at nå menneskelig lignende generel intelligens, men bliver bedre og bedre til at udføre snævert definerede opgaver. Her er de vigtigste komponenter i, hvordan vi definerer AI i dag, og hvorfor det betyder noget for dig som designer:

  1. Det er stort set baseret på data.
    De seneste fremskridt i AI ville ikke have været muligt uden de enorme mængder data, der er indsamlet af alle vores tilsluttede enheder og muligheden for at gemme dem.
  2. Det er smalt og meget fokuseret.
    AI er meget god til at finde mønstre i data og udføre specifikke opgaver, som vi har defineret, men generaliseres ikke særlig godt uden for foruddefinerede parametre.
  3. Det er ikke bekymret for resultatet af dens beregninger.
    I modsætning til den iboende rodethed ved menneskelig beslutningstagning, påvirkes en AI's evne til at træffe beslutninger ikke af ydre motiver eller hvor meget søvn den fik i går aftes, men er udelukkende fokuseret på opgaven. Da det ikke ved godt fra dårligt, forevises der dog nogen fordrejninger, der findes i dataene.
  4. AI's evner læres og ikke programmeres.
    AI kan forbedre iterativt på egen hånd - uden at være programmeret hvert skridt på vejen, kan det lære af sine erfaringer og forbedre med at tage fremtidige forudsigelser og beslutninger, hvilket resulterer i stadig mere sofistikerede evner.
  5. Det er et udviklende udtryk.
    AI defineres forskelligt af forskellige samfund, og dens definition vil fortsat ændre sig med fremtidige teknologiske fremskridt.

Når vi kender dette, tror vi, at AI vil have en enorm indflydelse på designfeltet, som vi kender det. Når det begynder at påvirke designen af ​​alle virksomheder, produkter, tjenester og (bruger) oplevelser, er det vigtigt, at vi har en grundlæggende forståelse af, hvad vi arbejder med, og beslutter, hvordan vi vil udnytte dets potentiale.

Stadig nysgerrig? Der er mere ved det!

Op- og nedture i AI gennem tid

Forløbere: et ønske om at forfalske guderne

Selvom vi normalt forestiller os noget futuristisk, når vi tænker på AI, har forestillingen eksisteret i århundreder. Cirka 750 f.Kr. i Homeros Iliade skabte den forkrøblede Hephaestus for eksempel automater, der hjalp ham med at komme rundt:

Disse er gyldne og ser ud som levende unge kvinder. Der er intelligens i deres hjerter, og der er tale i dem og styrke, og fra de udødelige guder har de lært, hvordan man gør ting.

I sin bog Machines Who Think beskriver Pamela McCorduck en række andre skabninger, som Hephaestus skabte til forskellige opgaver, i det mindste en af ​​dem er velkendt, hvis en smule truende: Pandora og hendes berygtede kasse.

Mekaniserende tanke

Ud over disse eksempler inden for fiktion var der vigtige fremskridt med hensyn til ræsonnement og logik i antikken, der førte til vores nuværende kodificerede sprog som basis for al computing. Kunstig intelligens antager i det væsentlige, at tanken kan mekaniseres og gengives. Aristoteles var en af ​​de første til at banebrydende organisere tanker i logiske argumenter i udviklingen af ​​syllogisme, der ofte har en tre-linjers form, såsom:

Alle mænd er dødelige.
Socrates er en mand.
Derfor er Socrates dødelig.

Den persiske matematiker Muhammad ibn Musa al-Khwarizmi, også kendt under hans latiniserede navn Algoritmi (hvorfra vi udledte ordet algoritme), er også en nøglefigur i mange af de begreber, vi tager for givet i AI i dag. Ordet algebra er for eksempel afledt af “al-jabr”, en af ​​de to operationer, som han brugte til at løse kvadratiske ligninger. Yderligere fremskridt i hele det 17. århundrede af matematikere og filosoffer som Gottfried Wilhelm Leibniz, Thomas Hobbes, René Descartes bygget på disse fundamenter med det formål at tænke så systematisk som algebra eller geometri.

Mens der var mange andre matematiske fremskridt i de følgende århundreder, der bidrog til moderne kunstig intelligens, skiller den engelske matematiker fra det 19. århundrede Ada Lovelace sig for hendes kreative tilgange og banebrydende arbejde inden for computing. Hun var den første, der antydede, at Charles Babbages mekaniske computer til generelle formål, den analytiske motor, muligvis havde kapaciteter, der ikke overstiger beregningen, og fortsatte derefter med at oprette sin første algoritme og tjente hende titlen verdens første computerprogrammør.

Fødslen af ​​kunstig intelligens

Selvom vi så fremskridt inden for databehandling gennem det tidlige 20. århundrede, startede kunstig intelligens virkelig i 1950'erne med en konference på Dartmouth College i 1956, der hævdede, at al læring og intelligens kunne beskrives nøjagtigt nok til at blive simuleret af en maskine. Det var her, at udtrykket "kunstig intelligens" først blev opfundet og henviser til "simulering af menneskelig intelligens med maskiner". Ved at reflektere over Dartmouth-værkstedet 50 år senere, musede en af ​​arrangørerne John McCarthy: ”Jeg ville have troet, at værkstedet ville have været kendt for de resultater, det gav. Det blev faktisk kendt i en betydelig grad simpelthen fordi det populariserede udtrykket 'kunstig intelligens'. ”

Den anden store AI-milepæl fra 50'erne, som du måske er bekendt med, er den berømte "Turing Test". Populæreret af Benedict Cumberbatchs præstation i The Imitation Game antydede den britiske computerforsker Alan Turing, at hvis en maskine kunne føre en samtale, der ikke kunne skelnes fra en samtale med et menneske, så var en "tænkemaskine" plausibel. Med andre ord ville en computer kun være intelligent, hvis den kunne narre et menneske til at tro, at det var menneske.

Det, der fulgte fra midten af ​​halvtredserne i de tidlige 70'ere, blev omtalt som AIs "gyldne år" med store fremskridt inden for databehandling og stigninger i både entusiasme og regeringsfinansiering. Specifikt holdt Marvin Minsky momentumet gående fra Dartmouth-værkstedet, da han co-grundlagde Massachusetts Institute of Technology's AI-laboratorium i 1959 og fortsatte med at lede feltet gennem 60'erne og 70'erne. Gaming begyndte også at afsløre sig som et ideelt middel til at udvikle og teste computer intelligens, med IBM udvikle et program, der kunne spille brikker i 1951. I 60'erne blev den "nærmeste nabo" algoritme oprettet i et forsøg på at løse den "rejse sælger problem ”:“ Givet en liste over byer og afstandene mellem hvert par byer, hvad er den kortest mulige rute, der besøger hver by nøjagtigt en gang og vender tilbage til oprindelsesbyen? ”Den resulterende algoritme dannede begyndelsen på grundlæggende mønstergenkendelse.

I 1969 udgav Marvin Minsky og Seymour Papert imidlertid Perceptrons, en bog, der diskuterede nogle af begrænsningerne i eksisterende neurale netværksteknologi, og var måske en harbinger af "AI-vinteren" i de følgende år.

AI overvintrer i 70'erne og 80'erne

Med et så vellykket løb fra 50'erne gennem 70'erne, drevet ikke kun af videnskabelige fremskridt, men også forhøjede de offentlige forventninger, der er næret af science fiction som Stanley Kubricks 2001 A Space Odyssey, eller Isaac Asimovs I, Robot, et kollisionskursus med begrænsninger af AI var uundgåelig.

I det væsentlige, når computere ikke kunne leve op til alles urealistisk høje forventninger, tørrede finansiering og entusiasme op, hvilket førte til afvikling af AI-laboratorier rundt om i verden. Selvom der var en kort anden vind fra 1980 til 1987 med en stor investering fra Japan, var denne boom kortvarig og bookended af en anden AI vinter fra 1987 til 1993.

Roger Schank og Marvin Minsky, førende AI-forskere, der havde overlevet den første vinter i 1970'erne, advarede erhvervslivet om, at ”entusiasme for AI var spiraleret ud af kontrol i 80'erne, og at skuffelsen helt sikkert ville følge.” Disse toppe og dale i AI entusiasme fortsætter i dag. Selv om der har været et par upopulære anvendelser af AI i de senere år, såsom den amerikanske hærs brug af AI til at identificere venlige eller fjendtlige stridsvogne, eller for nylig Microsofts Tay chatbot, der hurtigt udviste racistisk og antisemitisk opførsel på Twitter sidste år, generelt taler, kan du sige, at vi i dag er på et højdepunkt på alle tidspunkter med hensyn til AI-fremskridt, finansiering og entusiasme.

AI-landskab i dag - Hvorfor så varmt?

Et populært værktøj til at måle tech-hype er Gartners Hype-cyklus, der i år har dyb læring og maskinlæring på sit højeste. Selvom det ofte betragtes som en indikator for mediedækning end videnskabelig forskning, er der nogle legitimt spændende fremskridt, der har ført til AIs nuværende popularitet. Så er det alt sammen hype? Ikke helt. Lad os undersøge nogle af de vigtigste AI-milepæle fra de sidste seks år, som har bidraget til vores nuværende besættelse.

Seneste AI-milepæle

  • 2011: Apples Siri introduceres ved hjælp af noget naturligt sprog til at besvare spørgsmål, fremsætte henstillinger og udføre enkle handlinger, eller hvis ikke det, så slå ting op på internettet for dig.
  • 2012: Konvolutional Neural Networks (CNNs for short) ødelægger konkurrencen ved ImageNet-klassifikationen - blandt andet de "årlige OL i computervision" - skaber en ild i samfundet og frigør en enorm genopblussen af ​​interesse for dyb læring.
  • Google træner et neuralt netværk til med succes at genkende katte i YouTube-videoer ved hjælp af en dyb indlæringsalgoritme, på trods af at de ikke får oplysninger om at skelne søde kattefunktioner.
  • 2013: NEIL, den morsomme navngivne Never Ending Image Learner, frigives på Carnegie Mellon University for konstant at sammenligne og analysere forhold mellem forskellige billeder med det formål at lære den oh-så-ønskelige-men-undvigende menneskelige evne til sund fornuft.
  • 2015: Facebook starter udrulning af DeepFace, et dybt læringsgenkendelsessystem, der blev trænet på fire millioner billeder uploadet af Facebook-brugere. Det kan identificere ansigter med 97,35% nøjagtighed, en forbedring på mere end 27% i forhold til tidligere systemer.
  • 2015: Deep Q Networks af DeepMind lærer at spille Atari-spil, der markerer den kommende alder af dyb forstærkningslæring.
  • 2015–17: Google DeepMinds AlphaGo besejrer Go-mesterne Fan Hui, Lee Sedol og Ke Jie, verdens nummer 1-rangerede spiller på det tidspunkt.
  • 2015: Google DeepDream får alle til at undre sig over, om maskiner kan lave kunst, generere trippy-billeder ved hjælp af et indviklet neuralt netværk, software designet til at registrere ansigter og andre mønstre i billeder med det formål at klassificere billeder automatisk.
  • 2015-nutid: Kunstner Ross Goodwin udforsker nye former for fortalt virkelighed ved hjælp af maskinlæring med sin poetiske ”automatiske foto” -fortæller Word Camera og programmerede den selvtitulerede AI “Benjamin” til at skrive et manus til en film med David Hasselhoff i hovedrollen.
  • 2015-nutid: En række personlige AI-assistenter introduceres til hjemmet, hvor Apples Siri nu kæmper for det med Microsofts Cortana, Amazons Alexa og Google Now for din opmærksomhed.
  • 2017: Libratus, designet af Carnegie Mellon-professor Tuomas Sandholm og hans gradstuderende Noam Brown vandt mod fire topspillere i den komplekse version af poker - Texas Hold’em.
  • 2017: Googles Deepmind og skaberne af det multiplayer rumkrig-videospil StarCraft II har frigivet værktøjerne til at lade AI-forskere skabe bots, der er i stand til at konkurrere mod mennesker. Botterne vandt endnu ikke og forventes ikke det i et stykke tid, men når de gør det, vil det være en meget større præstation end at vinde på Go.

Fremskridt inden for maskinlæring og dyb læring

Hvor AI-udøvere bor

Alle disse milepæle ville ikke have været muligt uden større fremskridt inden for de mest spændende områder af kunstig intelligens i det sidste årti: maskinlæring og dyb læring. Selvom disse udtryk lyder ens, er de ikke helt ens. Lad os afklare.

Begyndende i slutningen af ​​90'erne og begyndelsen af ​​2000'erne medførte øgede computerlagrings- og behandlingsfunktioner, at AI-systemer endelig kunne indeholde nok data og udnytte nok strøm til at tackle mere komplekse processer. På samme tid skabte eksplosionen i internetbrug og -forbindelse en stadigt stigende mængde data, såsom billeder, tekst, kort eller transaktionsoplysninger, der kan bruges til at træne maskiner.

I stedet for det tidligere programmatiske system med "hvis-da" -regler og komplicerede symboliske logikprocedurer, der kræver tusinder af kodelinjer for at vejlede grundlæggende beslutningstagning som i god gammeldags kunstig intelligens eller GOFAI, fungerer maskinlæring bagud. Ved hjælp af enorme datasæt lærer algoritmer iterativt og leder efter mønstre for at give mening om fremtidige input. Maskinlæring blev pænt opsummeret af maskinlæringspioneren Arthur Samuel, der langt tilbage i 1959 beskrev det som ”studiefeltet, der giver computere mulighed for at lære uden at være eksplicit programmeret.” Maskinlæring bruges til at adressere en bred vifte af problemer i dag, såsom identificering af kræftceller, forudsigelse af, hvilken film du måske vil se næste, forståelse af alle slags talte sprog eller bestemme markedsværdien for dit hus.

Hvilke er kræftcellerne i dette billede? En AI kan muligvis finde ud af det hurtigere end en læge. Billede: Gabriel Caponetti i populærvidenskab.

De seneste fremskridt inden for maskinlæring har stort set været på grund af væksten i dyb læring - et underfelt af maskinlæring. Dyb læring låner fra hjernens struktur ved at forbinde masser af enkle "neuron" -lignende strukturer sammen for at gøre interessante ting i et neuralt netværk. Ved at stable mange lag af disse kunstige neuroner sammen (dermed "dybt") kan netværket som helhed lære at udføre komplekse opgaver. Interessant nok ender neuroner i disse lag ofte med at udføre specifikke roller, såsom at genkende kanter eller konturen af ​​et specifikt objekt. Den unikke styrke ved dyb læring er, at disse underopgaver - ofte kendt som "funktioner" - læres direkte fra dataene i stedet for at blive specificeret af programmerere. Dette tillader dyb læring at tackle problemer, hvor løsningen ikke er indlysende for mennesker.

Lad os tage et ægte eksempel: genkende kræftceller. En klassisk AI-tilgang ville stole på, at en menneskelig ekspert forsøger at destillere deres egen beslutningsproces og derefter kodificere den i algoritmen. F.eks. Kan vi markere celler, der er større end en bestemt størrelse, eller som har en uklar kontur eller en særegen form. Med dyb læring kan vi imidlertid direkte fodre billeder af celler, der er mærket for at indikere, om de er kræftagtige eller ikke, og vores neurale netværk lærer at vælge de mest nyttige funktioner i billedet til netop denne opgave. Dette er et klassisk eksempel på "overvåget læring": vi leverer nogle input og nogle ønskede output, og algoritmen lærer at kortlægge fra den ene til den anden.

Vi kan også fjerne mærkaterne helt og bede algoritmen om at gruppere de celler, der har noget til fælles. Denne proces er kendt som klynger, og det er en type uovervåget læring. Her giver vi ikke overvågning i form af etiketter, vi bruger simpelthen dyb læring til at finde struktur i dataene. I vores eksempel er vores celler måske mange forskellige typer - hudceller, leverceller og muskelceller - og det ville være nyttigt at klynge disse, før vi prøver at finde ud af, hvilke celler i hver klynge, der er kræft. Andre almindelige applikationer til klynge inkluderer identificering af forskellige ansigter på dine fotos, forståelse af forskellige kundetyper og indsamling af nyhedshistorier om det samme emne.

Tro ikke på hypen: AI Myths vs. Realities

Så med alle disse hurtige fremskridt inden for AI i de seneste år, ville du tro, at vi alle sammen ville blive pumpet om det, ikke? Nå, ikke alle. Ligesom i de første gyldne år af AI i 50'erne og 60'erne, er der stadig en bred kløft mellem vores forventninger til AI baseret på skildringer i science-fiction og medierne, og hvad AI faktisk er i stand til i dag. (For ikke at nævne den voldsomme frygt for forstyrrelse, bekymringer om privatlivets fred eller jobtab i forbindelse med disse forudsigelser.)

En anden måde at indramme denne diskussion på er forskellen mellem "smal" og "generel" kunstig intelligens. Meget af AIs største succes hidtil har været i “smal” kunstig intelligens, dvs. udføre en bestemt opgave inden for strenge parametre, såsom Siri, der skriver en dikteret tekstmeddelelse til dig eller genkender en kat i et billede. Der er ingen idé om selvbevidsthed eller generelle problemer med at løse problemer i snæver AI. Omvendt har meget af det, der har fanget offentlighedens fantasi gennem årtier, været denne fantasi om ”generel kunstig intelligens” i form af en menneskelignende assistent, der ligner Hal 9000, R2D2 eller Samantha in Her, hvor AI har lige, hvis ikke større intelligens end mennesker.

For at være meget klar er vi langt væk fra alt, der ligner generel AI. Yoshua Bengio, en af ​​grundlæggerne af Element AI, er eksplicit når han taler om dette emne - han mener ikke, det er rimeligt at foretage en tidsbaseret forudsigelse af, hvornår dette kan ske. I en for nylig tale beskrev han et par specifikke grunde til, at vi ikke er der endnu, den første var, at alle industrielle AI-succeser indtil nu kun har været baseret på overvåget læring. Vores læringssystemer er stadig ganske simpelt sindede, idet de er afhængige af overfladiske ledetråde i data, der ikke klarer sig godt uden for træningssammenhænge.

Googles neurale netgenererede håndvægte, komplette med fantomlemmer. Billede: Google.

For eksempel, da Google trænet et neuralt netværk til at generere billeder af håndvægte baseret på tusinder af billeder, fik det det næsten rigtigt. Jo, vi har to vægte forbundet med en stang, men hvad laver de fantomarme derinde? Selvom det neurale netværk med succes kunne identificere de fælles visuelle egenskaber ved håndvægte, da kildebilledene altid indeholdt mennesker, der holder håndvægte, antog det også, at håndvægte havde arme.

På trods af sådanne betydelige begrænsninger, for at høre Elon Musk sparre med Mark Zuckerberg denne sidste sommer, ville du tro, at en AI-drevet anden verdenskrig var rundt om hjørnet. Vores administrerende direktør Jean-François Gagné bringer os tilbage til det grundlæggende om den aktuelle tilstand af AI i et nyligt blogindlæg:

”AI er meget smal og skrøbelig. Det fungerer ikke godt uden for det anvendelsesområde, det er indstillet til. Det kan kun administrere enkle objektive funktioner; så det er virkelig os mennesker, der bruger vores menneskelige intelligens til at anvende det effektivt til det punkt, hvor et job kan automatiseres. ”

AI's mange definitioner

Nu hvor vi er ved at sætte fart i den historiske udvikling og de seneste fremskridt i AI, lad os grave i de mange definitioner, vi er kommet frem til for at beskrive det gennem årene. Mens nogle har hævdet, at udtrykket er så overdrevet for nylig, at det er blevet meningsløst, er vi ikke helt villige til at opgive det.

Sådan bruges udtrykket “AI” i dag

Lad os starte med at undersøge intelligens for at definere AI. På den ene side kan du tage en forenklet opfattelse af intellekt baseret på en IQ-score for eksempel. Men vi ved alle, at intelligens faktisk er meget mere lagdelt og kompleks. Oxford Dictionary definerer det som: "evnen til at tilegne sig og anvende viden og færdigheder", mens Cambridge Dictionary's tilgang er lidt anderledes: "evnen til at lære, forstå og træffe vurderinger eller have meninger, der er baseret på fornuft." Andre har udviklet mere nuancerede måder til måling af intelligens gennem årene, såsom Howard Gardners teori om flere intelligenser, med modaliteter såsom musikalsk-rytmisk og harmonisk, visuelt-rumlig, verbal-sproglig, logisk-matematisk, kropslig-kinestetisk og eksistentiel , blandt andre. Vores holdning til det er tættere på denne sidste definition, hvilket muliggør indsamling, behandling og anvendelse af information inden for en bred vifte af sammenhænge.

Vores idé om intelligens er også meget antropomorf: Den er baseret på den måde, hvorpå vi som mennesker tænker over og løser problemer. AI er vidt forstået på samme måde, idet et kunstigt intelligent system kommer til konklusioner på en måde, der ligner et menneskes tilgang. På baggrund af denne idé præsenterer David C. Parkes og Michael P. Wellman forestillingen om AI som "homo Economicus, den mytiske perfekt rationelle agent for neoklassisk økonomi." Men selvom det er fristende at tro, at vi kunne forestille os en perfekt rationel enhed, data, der bruges til at træne AI, er ofte iboende mangelfulde på grund af menneskelig eller anden bias, hvilket gør "perfekt rationalitet" næsten umulig at evaluere.

En rapport fra Det Hvide Hus i 2016 om AI summerer af udfordringerne ved at komme frem til en sammenhængende definition: ”Der er ingen enkelt definition af AI, der er universelt accepteret af praktikere. Nogle definerer AI løst som et edb-system, der udviser adfærd, der almindeligt betragtes som kræver intelligens. Andre definerer AI som et system, der er i stand til rationelt at løse komplekse problemer eller tage passende forholdsregler for at nå sine mål under uanset virkelighedens omstændigheder, det møder. ”Det er interessant at bemærke, at de ikke bruger udtrykket” menneskelig adfærd ”her, men blot "opførsel".

Den svenske filosof Nick Bostrom fokuserer på forestillingen om læring og tilpasning i AI i sin bog Superintelligence: Paths, Dangers, Strategies: “En kapacitet til at lære ville være et integreret træk i kernedesignet i et system beregnet til at opnå generel intelligens… Det samme holder for evnen til at håndtere usikkerhed og sandsynlige oplysninger. ”Andre, såsom computeringeniørprofessor Ethem Alpaydın i en introduktion til maskinlæring, siger, at“ et intelligent system skal kunne tilpasse sig sit miljø; det skal lære ikke at gentage sine fejl, men at gentage sine succeser. ”

Vores definitioner

Ud over at undersøge, hvordan andre definerer AI i dag, involverede en del af vores forskning også udsendelse af en virksomhedsdækkende undersøgelse, der bad vores kolleger om at definere kunstig intelligens, i en sætning (eller to eller tre). I undersøgelsesresultater fremkom tre vigtigste svarkategorier:

  1. AI er en computers evne til at tage beslutninger eller forudsige, baseret på de tilgængelige data.
  2. AI er en computers evne til at gentage hjernefunktioner af højere orden, såsom opfattelse, kognition, kontrol, planlægning eller strategi.
  3. AI er et program oprettet af data og beregning, dvs. ikke hårdkodet.

Til vores formål i dag, er disse definitioner nok? Hvad er nogle af faldgruberne i forsøget på at definere et så bredt og stadigt udviklende koncept?

Hvorfor er dette så svært?

Fangstfænomenet er en af ​​de største udfordringer, når vi taler om AI. Hyppige anvendelser af udtrykket har resulteret i en bred vifte af applikationer og iboende forvirring, som forklaret af Genevieve Bell, ph.d. ved Stanford i antropologi og direktør, interaktion og erfaringsforskning hos Intel:

”For mig er kunstig intelligens et udtryk og det er en, der cykles ind og ud af popularitet. Det er tilbage i øjeblikket. Det er en paraplybegivenhed, hvor du kan tale om kognitiv computing, maskinlæring og dyb læring og algoritmer. Det er et fangstmål, fordi det betyder alt og intet på samme tid. Det er en kulturel kategori lige så meget som en teknisk kategori. ”

Udtrykket bruges ofte under forkerte omstændigheder (eller rettere sagt upræcise omstændigheder), fordi det er så bredt, som skitseret i dette McKinsey Global Institute-diskussionsdokument 2017, AI: Den næste digitale grænse:

”… Det er svært at fastlægge, fordi folk blander og matcher forskellige teknologier for at skabe løsninger til individuelle problemer. Nogle gange behandles disse som uafhængige teknologier, undertiden som undergrupper af anden teknik og andre gange som applikationer… Nogle rammer grupperer AI-teknologier efter grundlæggende funktionalitet…, nogle grupperer dem efter forretningsapplikationer ... ”

En anden stor udfordring til at definere AI er det faktum, at videnskab og dens anvendelser konstant udvikler sig. Som Pamela McCorduck forklarer i sin bog Machines Who Think, diskonteres ofte et intelligent system til at løse et nyt problem som "bare beregning" eller "ikke reel intelligens". Filosof Bostrom opsummerer dette pænt: ”En masse banebrydende AI er filtreret ind i generelle anvendelser, ofte uden at blive kaldt AI, fordi når noget bliver nyttigt nok og almindeligt nok, er det ikke mærket AI længere.” For eksempel IBM-programmet, der spillede brikker i 1951 kan have været betragtet som banebrydende AI på det tidspunkt, men ville blive beskrevet som grundlæggende computing i dag. Eller for nylig vil nogle hævde det pessimistisk, at der ikke er noget "intelligent" ved nogen "smal AI", såsom AlphaGo, der slår Lee Sedol.

I betragtning af alle disse udfordringer, er der en måde at reducere den kulturelle og mediernes støj, der giver vores bedømmelse og fokus på konkrete spørgsmål? Når vi bruger ordet "AI", henviser vi normalt til en bestemt teknologi, såsom naturlig sprogbehandling, maskinindlæring eller maskinsyn. Så det at være så specifikt som muligt er et godt sted at starte. Under andre omstændigheder er brug af udtrykket "AI" imidlertid ikke forkert placeret, f.eks. I situationer, hvor vi virkelig ikke ved præcist, hvilken teknologi der er i brug. Det er en fælde, som vi ikke er immun over for at falde i, sammen med alle AI-udøvere og journalister, der fyrer denne igangværende diskussion.

Ser frem til

Når vi forsøger at tydeligt formulere, hvad AI “er”, har vi opdaget, at det betyder ganske mange forskellige ting for forskellige mennesker. Det er en idé, der har fanget vores fantasi i meget lang tid. Selv hvis vi begrænser det til datalogi, er det stadig meget bredt. Med dette i tankerne synes vi det er vigtigt at fokusere på, hvordan AI allerede ændrer vores liv, gennembrudene i dag, der udløser denne hype. Kevin Kelly opsummerede dette pænt i en nylig TED-tale:

”Der er ingen AI-eksperter lige nu. Der er mange penge til det, der bruges milliarder af dollars på det; det er en enorm forretning, men der er ingen eksperter sammenlignet med hvad vi ved 20 år fra nu. Så vi er lige i begyndelsen af ​​begyndelsen, vi er i den første time med alt dette ... Det mest populære AI-produkt på 20 år fra nu, som alle bruger, er ikke opfundet endnu. Det betyder, at du ikke er for sent. ”

Med andre ord er det normalt, at vores forestillinger om AI involverer flere synspunkter og undertiden modstridende ideer, fordi det udvikler sig og sker nu. Dette er ikke beregnet til at blive læst som en cop-out, men snarere et opfordring til at omfavne dens iboende værdighed og rod, når vi arbejder på at gøre det bedre.

Alt dette for at sige, vi vil ikke etablere definitionen. Vi ønsker dog, at designere, der kæmper med den teknologi, der kommer i produktion i dag, skal have en grundlæggende forståelse af AI og dens muligheder. Hvis "AI er hvad, der endnu ikke er gjort," som Teslers sætning udtrykker det, er det netop her, vi skal se - ikke på hvad der allerede er gjort, men hvad der er muligt eller meget snart at være.

Vi tror, ​​at AI i sin kerne er en enorm læringsmulighed, og hvis den udvikles med omhu, kan fremdrive mennesker til vidtrækkende fremskridt. Da hestetruger dramatisk revolutionerede landbruget i 1100-tallet, og dampmaskiner fremdrev fremstilling og transport til en ny æra i 1700-tallet, ser vi AI understøtte det næste århundrede med digital innovation. Som MIT fysikprofessor Max Tegmark for nylig sagde, er det ikke tid til at overveje fremtiden som en forudbestemt begivenhed, som vi uundgåeligt sårer mod, men snarere burde vi spørge os selv, ”Hvilken fremtid ønsker vi at designe med AI? ”

Hvis du nød dette, så kig efter det næste kapitel i vores AI-First Design Foundations-serie - Hvad er egentlig design?

Forfattere og bidragydere

Rebecca West er redaktør for AI1D Journal ved Element AI og en forfatter med fokus på projekter i skæringspunktet mellem design, teknologi og kreativitet.

Illustrationer af Dona Solo, en visuel designer hos Element AI.

Med bidrag fra Experience Designer Masha Krol, Applied Research Scientist Archy de Berker og vores sommer 2017-forskningsstuder Louis-Félix La Roche-Morin.