Hvis du tilslutter "A.I." eller "kunstig intelligens" til Google Image Search, er det her, du får: elektriske hjerner, der fyrer blå med neuroner; gennemskinnelige robotter og robothoveder; kode dribler ned ad deres pande og næser. En abe, der bliver en smartphone-bruger, derefter en figur inden for bærbar tech, en protese og et netværk, der kommer ud af deres hoved. “Hvad er A.I.?” Spørger en cyborg, men modtager aldrig svar fra robothovederne, hjernerne og kropperne. A.I. betyder, at vi og vores robotvenner flyver gennem en verden af ​​ens og nuller mod en sort skærm i det ydre rum.

Fremtiden til ... jQuery? Kredit: Max Pixel / Public Domain.

Du får et billede som dette: den uhyggelige dalkvinde med Photoshop-perfekte funktioner. Hun er en vision om en cyborg: del kvindelig og delvis kredsløb, med jQuery kører i baggrunden. Googles bedste gæt til billedet? "Kunstig efterretningsoperatør." Denne cyborg illustrerer fremtiden i adskillige artikler, som du vil se med en omvendt billedsøgning, herunder "Rise Of the Machines: BlackRock vender sig til robotter for at vælge lagre," og "Vatikanets kardinal på en søgen efter sjælen inde i maskinen. ”Hun illustrerer endda en ZDNet-artikel om mit universitets nye AI-dur, der inkluderer kurser, jeg underviser.

Nogle Google Image Search-indstillinger for AI

Google Image Search tilbyder en række ord, der hjælper med at dele resultaterne. Efter ord som robot, fremmede, datalogi og hjerne, er kvinden og far ryg mod ryg, efterfulgt af magtsystem, menneske og gud. "Father" tilbyder billeder af Alan Turing og John McCarthy. "Kvinde" serverer billeder af fembotter.

"Nogle gange er du nødt til at risikere mørket for at se lyset."

Noget af denne æstetik blev populariseret af filmen Minority Report, der præsenterede gestusflade på den store skærm. I dag er intelligente miljøer en realitet. Men hvorfor skildrer vi dem som lagdelte og spøgede? ”Disse kulturelle klichéer / touchstones er populære af en anden grund: Det er virkelig, virkelig svært at tale om digital-reality-tech ellers,” skriver Eric Johnson. ”Disse felter er fulde af jargon, inkonsekvente i praksis og vanskelige at dyrke, hvis du ikke har set alle de seneste demoer; popkultur er en genvej til et fælles ideal, en fælles vision. ”

Minoritetsrapport blev rådgivet af videnskabsrådgiver John Underkoffler, grundlægger og administrerende direktør for Oblong, der bygger immersive human machine interface (HMI) platforme, der kombinerer skærme i forskellige skalaer og forskellige interaktionsformer. Det er noget, han har arbejdet på i næsten 30 år, begyndende med sin speciale på MIT Media Lab om hologrammer og fotografisk virkelighed i 1991, hvor han undersøgte ”udviklingen af ​​nye teknikker til beregning af holografiske interferensmønstre af objekter og scener med realistisk visuel egenskaber. ”Denne forskning var en del af MIT Holographic Video-projektet - en dagsorden, der blev sat over et årti tidligere i slutningen af ​​1970'erne, da Nicholas Negroponte og forskere fra MITs Architecture Machine Group (forgængeren til Media Lab) udviklede simuleringsmiljøer, der var beregnet til at kunne skelnes fra virkeligheden. I 1978 skrev Negroponte og kolleger i et forslag: ”Vi bliver mindet om anmodningen fra Bell. Det er den næste bedste ting at være der. Dette forslag handler om at være der. ”

De troede, vi ville være der i 1978. Fyrre år senere er vi der.

Eller der er denne vision. Theodore Twombly (Joaquin Phoenix) bevæger sig gennem en rosetonet verden i filmen Her. Om dagen arbejder han for et firma, der skriver breve til folk, der ikke følelsesmæssigt kan mønstre det - selv en A.I. for menneskers følelsesmæssige verdener. Han er dating med Samantha, hans intelligente operativsystem. Theodore bevæger sig gennem en byverden og har dybt forbundne samtaler med Samantha og alligevel forbliver frakoblet fra menneskene omkring ham. Han er afstemt på en stemme, som kun han kan høre, men som kan være den samme stemme for tusinder af andre på samme tid. Er han påvirket af den underlige virtuualitet i sin kærlighed eller undgår han vanskelighederne med at forholde sig til en rigtig person, eller begge dele? Filmens verden af ​​Hendes er farvekorrektion som snuskede Instagram-fotos af Coachella-fans, en grænseflade, hvor intet ikke er en computer.

Hvordan kommunikerer du det, du ikke forstår?

Problemet er, at det er svært at kommunikere klart om A.I. - til dels fordi at kommunikere om det betyder at forstå det. Og de fleste af os har ikke en klar forståelse af, hvad A.I. faktisk er det. Udtrykket "kunstig intelligens" har eksisteret siden 1955, da A.I. pioner John McCarthy skrev, at A.I. var et spørgsmål om at "få maskiner til at gøre ting, som ville kræve intelligens, hvis de blev udført af mennesker." Denne idé har ikke ændret sig meget i dag - Wikipedia kontrasterer kunstig intelligens (eller maskineintelligens) med den naturlige intelligens hos mennesker og dyr, og Oxford engelsk Ordbog definerer det som ”computerens eller andre maskiners kapacitet til at udvise eller simulere intelligent opførsel; undersøgelsesområdet vedrører dette. Forkortet A.I. ”Men hvad betyder det egentlig for en dagligdagse person? Betyder det chatbots bestået en Turing-test? En robotopstand? Eller er det simpelthen interaktivitet, hvor behandlingen sker lige uden for syne?

A.I. er en sort boks, "en enhed, der udfører komplicerede funktioner, men hvis interne mekanisme muligvis ikke let kan inspiceres eller forstås" (OED) - noget vi forstår på grund af input og output. Vi kan ikke se, hvad der sker indeni, og vi har ikke meningen at have adgang til det. Den sorte kasse er uigennemsigtig.

I dag er der tre grunde til algoritmisk opacitet, som Jenna Burrell skriver: behovet for at beskytte algoritmer, der er stats- eller virksomhedshemmeligheder; det faktum, at A.I.-relateret kodning stadig er specialister; og en "uoverensstemmelse" mellem de matematiske måder, algoritmer behandler information og den måde, mennesker tænker på. Denne sidste er den sværeste at sortere: hvordan mennesker tænker er anderledes end hvordan maskinen tænker, og hvordan vi resoncerer er anderledes end hvordan maskinen begrunder (eller ikke begrunder, afhængigt af din definition af "grund").

Den Europæiske Union kræver, at A.I. gøres forklarbar gennem en ”ret til forklaring” som en del af GDPR (General Data Protection Regulation), der netop trådte i kraft. EU-borgere har ret til en forklaring på algoritmernes arbejde, og de har ret til at anmode om menneskelig indgriben. Forordningerne understøtter ideen om, at "folk skyldes agentur og forståelse, når de bliver konfronteret med maskinfremstillede beslutninger," skrev Cliff Kuang i New York Times. David Weinberger hævder, at et fokus fra A.I. snarere end at forklare sig selv. skal være optimering, ikke forklaring: synliggør og tydeligt for alle gennem debatten i den offentlige politik, hvilke afvejninger, der foretages, snarere end potentielt hobbende A.I.

Den amerikanske regering har aldrig været kendt for veludformede PowerPoint-dæk

I mellemtiden har DARPA introduceret programmet Explainable Artificial Intelligence, der søger at gøre modellerne bag maskinlæring og A.I. mere forklarende. Det er et vigtigt skridt i retning af at forstå, hvad vi mener, når vi taler om A.I., og alligevel spekulerer jeg på, hvad det rent faktisk vil opnå for hverdagen. DARPA-siden til projektet viser dette billede, der viser, hvad en bruger måske spørger, men ikke på nogen hurtig måde, der går ind på, hvordan det vises i verden. Måske ikke overraskende vender DARPA tilbage til de samme klichéer som de Google Image Searches, jeg nævnte ovenfor.

Vi har brug for nye klichéer.

Vi støder på A.I. i verden omkring os. Vi ser og læser om A.I.s applikationer på mange forskellige områder. I mit Pittsburgh kvarter, hvor Argo og Uber ATG har deres hovedkvarter, passerer autonome køretøjer mig forbi så ofte, at de ikke længere registrerer mig som usædvanligt. Tæt på løbesporet ved floden passerer jeg autonome gravemaskiner og bulldozere. Dette er synlige applikationer, vi kunne trække forståelse fra. Og så er vi nødt til at gøre det hårde arbejde med at vise, hvad de mindre synlige applikationer af A.I. ligner. Jeg er begejstret for arbejdet i denne gruppe, der sammenkaldte en workshop om visualiseringer til AI-forklarbarhed. Mange af eksemplerne, de peger på i deres workshopmeddelelse, handler om undervisning i A.I. (her er et smukt eksempel fra et par år tilbage). Hvad kan vi designe til dagligdags mennesker?

For at være sikker, ønsker vi ikke at miste elegance, enkelhed og endda magi ved intelligent interaktion - vi værdsætter disse attributter i godt design. Når vi interagerer med noget intelligent, ønsker vi, at det åbner måder for os at se og opleve, hvad teknologi kan gøre. Vi ønsker at opleve magien. Og når jeg udvikler denne magi, er det let at falde ind i de Hollywood-klichéer, jeg har nævnt. Det er svært ikke at gøre det. Hvordan synliggør du noget, der sker ude af syne?

Vores popkulturvisioner af A.I. hjælper os ikke. Faktisk skader de os. De er årtier forældede. Og for at gøre tingene værre, bruger vi fortsat de gamle klichéer til at tale om nye teknologier i dag. De gør det sværere for os at forstå A.I. - hvad det er, hvad det ikke er, og hvilken indflydelse det vil have på vores liv. Når vi ikke forstår A.I., forstår vi ikke magtforskellene ved spillet. Vi lærer ikke at stille spørgsmål, der kan føre til bedre A.I. i fremtiden - og bedre klichéer i dag. Lad os lægge spøgelserne og cyborgerne for at hvile og finde en reel måde at kommunikere om A.I.