AI Investment Primer:Laying the groundwork (Del I)

Sammendrag

Hvad er AI?
  • Kunstig intelligens (AI), kan enkelt forklares som intelligens demonstreret af maskiner, i modsætning til den naturlige intelligens, der vises af mennesker og andre dyr.
  • Machine learning er en undergruppe af teknikker, der bruges i AI, og deep learning er en undergruppe af teknikker, der bruges i maskinlæring.
  • Der har været tre væsentlige bølger af AI-udvikling. Den første i 50'erne og 60'erne, den anden i 80'erne og 90'erne, og den tredje startede for ti år siden og har vundet frem siden 2016 (AlphaGo).
Hvad er specielt ved denne bølge af kunstig intelligens?
  • Denne bølge af kunstig intelligens er drevet af væksten og populariteten af ​​dyb læring.
  • Mens deep learning-teknikker har eksisteret siden 60'erne, var den nødvendige computerkraft og data ikke avanceret nok til at understøtte kommerciel masseanvendelse før de sidste par år.
  • Grunden til, at dyb læring er så spændende, er, at dyb læring, kort sagt, giver mulighed for meget mere kraftfuld ydeevne end andre læringsalgoritmer.
Nøglekomponenter i vellykkede AI-applikationer.
  • AI-applikationer skal løse et veldefineret (specifikt) og ønskeligt (målrettet presserende og tydelige kundesmertepunkter). Ansigtsgenkendelse, maskinoversættelse, førerløse biler, søgemaskineoptimering er alle veldefinerede ønskelige problemer. Men manglen på veldefinerede ønskelige problemer er grunden til, at det er vanskeligt at fremstille f.eks. en generel rengøringsrobot.
  • Maskinlæringsalgoritmer kræver adgang til rene og velmærkede data. Denne dataindsamlingsøvelse kan være svær eller nem, afhængigt af hvilken kommerciel applikation du udvikler.
  • En AI-virksomhed skal udvikle robuste og skalerbare algoritmer. For at opnå dette er der tre must-haves:en stor mængde velmærkede data, det rigtige talent og tilliden til, at deep learning er den rigtige teknologi til at løse problemet.
  • Succesfulde AI-applikationer kræver meget computerkraft. Jo mere avanceret kunstig intelligens-algoritmen er (f.eks. deep learning neurale netværk), jo mere beregningskraft kræves, jo dyrere er operationen ved hånden.

I løbet af de sidste par år har verden været vidne til en eksplosion af interesse omkring kunstig intelligens (AI). Et koncept, der engang primært var begrænset til Sci-Fi-genren, er AI blevet en del af vores hverdag. Vi læser om det hele tiden i nyhederne, se videoer af skræmmende udseende robotter, der danser til tonerne af Uptown Funk , og hør om, hvordan AI-applikationer kryber ind i selv de mest uventede sfærer i vores daglige liv. Men er det en hype?

Det kunne være. Ifølge Gartners Hype Cycle for Emerging Technologies, er demokratiserede AI-tendenser, herunder AI PaaS (platform som en service), kunstig generel intelligens, autonom kørsel, deep Learning, alle på forskellige punkter på kurven, hvor Deep Neural Nets er på toppen af oppustede forventninger. Men vi nyder også allerede godt af AI hver dag. Fra Siri til Cortana til Alexa kan vi nu tale med smarte assistenter. Fra Googles AI-drevne søgemaskine til Instagram-filtre nyder vi nu fordelen af ​​hurtige, mere relevante svar på vores behov. I Kina, hvor AI-innovation blomstrer, driver virksomheder som Face++'s ansigtsgenkendelsesteknologi øjeblikkelig ID-godkendelse til banker, mens apps som TikTok sender korte videoer til millioner af teenagere (faktisk bejler til betydelig kontrovers ved at gøre det).

Jeg tror personligt, at selvom der bestemt er nogle overhypede forventninger og virksomheder, er AI fremtiden . Jeg grundlagde min egen tidlige AI-startup for at fange denne enestående mulighed for at deltage i teknologirevolutionen. Som tidligere VC-investor er jeg også konstant på udkig efter investeringsmuligheder i AI. Jeg mener derfor, at på trods af den ubestridelige støj omkring rummet, er den enorme stigning i AI-investeringer også berettiget.

Men med dette i tankerne, overrasker det mig, at der, især blandt investeringssamfundet, stadig er et stort hul i forståelsen. Investorer er opsatte på at sætte penge på arbejde, men de mangler ofte vigtig grundlæggende viden, som efter min mening kræves for at være en effektiv investor på dette område. Formålet med denne artikel er derfor at dele og give noget nyttig kontekst og information til dem, der er interesseret i at investere i dette spændende felt. I betragtning af bredden af ​​det aktuelle emne, har jeg delt mine tanker op i to dele, den første har til formål at diskutere nogle få væsentlige elementer, man skal vide for at komme i gang med AI-rejsen - en 101 af slagsen. Anden del af denne serie vil være mere praktisk og vil dykke dybere ned i emnet om, hvordan man evaluerer AI-investeringer og de forskellige måder at investere på.

N.B. Dette indlæg er ikke ment som teknisk. Den er rettet mod investorer og det bredere finansielle samfund og derfor ikke-tekniske læsere.

Hvad er kunstig intelligens?

Der er faktisk mange definitioner af kunstig intelligens, så når jeg bliver bedt om at definere det, bruger jeg ofte den gode gamle Wikipedia, som jeg synes giver en tilfredsstillende definition for ikke-tekniske målgrupper:

Kunstig intelligens (AI), nogle gange kaldet maskinintelligens, er intelligens demonstreret af maskiner, i modsætning til den naturlige intelligens, der vises af mennesker og andre dyr.

Med andre ord er enhver ikke-naturlig intelligens "kunstig" intelligens, uanset hvordan den er opnået. Teknikker, der bruges til at opnå AI, omfatter hvis-så-regler, logik, beslutningstræer, regressioner og maskinlæring inklusive dyb læring. Et af mine yndlings- og sjove værktøjer til at forklare, hvordan AI fungerer, er denne video om, hvordan en computer lærer at spille Super Mario.

Når du taler om AI, vil du uvægerligt høre disse tre nøglebegreber:AI, machine learning og deep learning. Nogle gange bruges de i flæng, men de er forskellige. Simpelt sagt er maskinlæring en undergruppe af teknikker, der bruges i kunstig intelligens. Deep learning er en undergruppe af teknikker, der bruges i maskinlæring .

Nvidia-bloggen gør et godt stykke arbejde med at opsummere forholdet mellem de tre udtryk. Det giver også et praktisk overblik over de tre bølger af AI-udvikling. Den første bølge af kunstig intelligens var i 50'erne og 60'erne og så nogle af de første store milepæle, såsom da IBM 701 vandt damspillet over dammester Robert Nealey. I 80'erne og 90'erne slog Deep Blue den menneskelige mester Kasparov ved skak. I marts 2016 slog AlphaGo #1 Go-spilleren Lee Sedol. Hver gang AI slog menneskelige mestre i spil, udløste det en ny hype-fase for AI. Da teknologien ikke kunne levere applikationer, der lever op til offentlighedens forventninger, ville AI-hypen blive til AI-vinter med faldende investeringer og forskningsbevillinger.

Som tidligere nævnt er maskinlæring en delmængde af AI. Ifølge Nvidia er maskinlæring på sit mest basale "praksis med at bruge algoritmer til at parse data, lære af dem og derefter foretage en bestemmelse eller forudsigelse om noget i verden. Så i stedet for at håndkode softwarerutiner med et specifikt sæt instruktioner til at udføre en bestemt opgave, 'trænes' maskinen ved hjælp af store mængder data og algoritmer, der giver den mulighed for at lære, hvordan den skal udføre opgaven." Et meget almindeligt eksempel på maskinlæring er spamfilter. Googles spamfilter kan genkende spam ved at identificere triggerord som "Prince", "Nigeria" og "luksusur". Det kan også fortsætte med at "lære" af brugernes manuelle klassificering af spam. For eksempel blev en e-mail med beskeden "send $1000 for at få dette eksklusive kræftlægemiddel til følgende bankkonto" overset af Googles spamfilter. Når en bruger mærker det som spam, analyserer Gmail alle søgeordene i den pågældende e-mail og "lærer" at behandle e-mails, der indeholder kombinationsordene "$1000", "stof" og "bankkonto" som spam fremover. Der er mange matematiske modeller ansat af fagfolk til at lave machine learning, f.eks. regressioner, logistik, Bayesianske netværk, klyngedannelse.

Hvad er specielt ved denne bølge af AI?

Denne bølge af kunstig intelligens er drevet af populariteten af ​​deep learning . Som en delmængde af maskinlæring blev deep learning ikke opfundet for nylig. Faktisk, ifølge Wikipedia, "blev den første generelle, fungerende læringsalgoritme for overvågede, dybe, feedforward, flerlagsperceptroner udgivet af Alexey Ivakhnenko og Lapa i 1965". Men da computerkraften og dataene ikke var avancerede nok til at understøtte den kommercielle masseanvendelse af deep learning-teknikker, vandt de først popularitet i 2006, da Geoffrey Hinton et al. udgav deres banebrydende papir, "A Fast Learning Algorithm for Deep Belief Net." På trods af AI-vinteren i 90'erne og første halvdel af 2000'erne fortsætter nogle få forskere, inklusive de tre akademiske guruer inden for dyb læring, Geoffrey Hinton, Yann LeCun og Yoshua Bengio, med at arbejde på dyb læring på det akademiske område. Det hurtige gennembrud af computerkraft, for eksempel cloud computing og GPU'er, kombineret med tilgængeligheden af ​​big data gennem den digitale økonomi, har gjort deep learning-algoritmer mulige at implementere i det sidste årti. For eksempel startede Googles forskning i selvkørende biler i 2009.

Teknisk set kan deep learning defineres som "en klasse af maskinlæringsalgoritmer, der:

  • brug en kaskade af flere lag af ikke-lineære behandlingsenheder til ekstraktion og transformation af funktioner. Hvert efterfølgende lag bruger output fra det forrige lag som input.
  • lær på overvåget (f.eks. klassifikation) og/eller uovervåget (f.eks. mønsteranalyse) manerer.
  • lær flere niveauer af repræsentationer, der svarer til forskellige abstraktionsniveauer; niveauerne danner et hierarki af begreber.”

Nøglen er "flere lag" sammenlignet med traditionel maskinlæring. Hvordan vil du for eksempel skelne en kat fra en hund? Hvis du skulle bruge maskinlæring, kunne du måske udtrække nogle få funktioner, der er fælles for både hunde og katte, såsom to ører, et lodnet ansigt, afstanden mellem øjne og næse og mund osv. Og du får måske et resultat, der siger billedet er 50% hund, 50% kat - ikke særlig brugbart. Ved at bruge deep learning ved du dog ikke engang, hvad de kendetegn, der kendetegner en kat vs. en hund, men maskinen ville gennem flere lag med at skabe nye funktioner og hundredvis (eller tusinder) af statistiske modeller give en mere nøjagtigt output - f.eks. 90% hund, 10% kat. De to diagrammer nedenfor illustrerer, hvordan et neuralt netværk "lærer", og forskellen mellem klassisk maskinlæring og neurale netværk.

Læsere kan stå og klø sig i hovedet efter at have læst ovenstående, og det med rette. Men går vi tilbage til vores oprindelige formål:fra en investors synspunkt, hvad er så specielt ved deep learning? Man kunne besvare dette spørgsmål med forskellige yderligere komplicerede tekniske forklaringer, men egentligt enkelt sagt gør grafen nedenfor til venstre et godt stykke arbejde med at gøre det virkelig klart:dyb læring giver mulighed for meget mere kraftfuld ydeevne end andre læringsalgoritmer. Tag eksemplet med talegenkendelse som beskrevet i Microsoft-bloggen (diagrammet nedenfor til højre):den oprindelige talegenkendelsesfejlrate fra 1988 var 60-70 %, mens det nye Microsoft-system, der bruger dyb læring, kun var 6,3 % i 2014.

Nøglekomponenter i vellykkede AI-applikationer

Jeg tror, ​​at der er 4 nøglekomponenter til et maskinlærings- (herunder deep learning)-produkts succes:veldefinerede ønskelige problemer, data, algoritmen/algoritmerne og computerkraft .

Først og fremmest skal AI-applikationen løse et veldefineret (specifikt) og ønskeligt (målrettet presserende og tydelige kundesmertepunkter) problem . Tænk på de forskellige spil, som computeren blev lært at spille over de 3 forskellige bølger af AI:dam, skak, Go. Det var meget veldefinerede problemer og derfor nemmere for en computer at løse. Ansigtsgenkendelse, maskinoversættelse, førerløse biler, søgemaskineoptimering er alle veldefinerede ønskelige problemer. Men manglen på veldefinerede ønskelige problemer er grunden til, at det er så vanskeligt at fremstille for eksempel en almindelig rengøringsrobot. Simple husholdningsopgaver, f.eks. at samle kopper og lægge vasketøj i kurven, kræver løsning af for mange problemer. For eksempel kræver det, at maskinen identificerer, hvilke genstande der skal samles op (kopper, snavset vasketøj og ikke rent vasketøj osv.), hvor man skal hen, og hvordan man skal hen (undgå forhindringer i husstanden og kør til det ønskede sted) placering), håndtere hver genstand med den ønskede kraft, så den ikke knækker koppen eller vasketøjet osv.

For det andet kræver udvikling af en maskinlæringsalgoritme adgang til rene og velmærkede data . Dette skyldes, at disse algoritmer er bygget ved at tilføre forskellige statistiske modeller en stor mængde data, der er godt mærket, for at etablere de nødvendige forudsigende sammenhænge. Denne dataindsamlingsøvelse kan være svær eller nem, afhængigt af hvilken kommerciel applikation du udvikler. For eksempel for at indsamle de nødvendige data, der kræves for at udvikle computervisionsalgoritmer til vindruemarker, havde min startup brug for markbilleder fra forskellige lokationer med forskellige varianter og mere vanskelige stillbilleder - forskellige årstider. Med hver sæson på et år, vil det tage år at få tilfredsstillende produkter. Hvis du derimod ønsker at udvikle en god ansigtsgenkendelsesalgoritme i Kina, for at indsamle f.eks. 10 millioner billeder, du skal bare opsætte et kamera på en travl gade i Beijing i en uge, og opgaven er fuldført. Et andet eksempel ville være den #1 AI-drevne personaliserede nyhedsaggregator i Kina, Toutiao, som lærer om dine personlige nyhedspræferencer og kun viser dig de mest relevante nyheder for dig. Indsamling af data er i dette tilfælde igen meget lettere, f.eks. antallet af artikler du læser i hver nyhedskategori, mængden af ​​tid du bruger på hver artikel osv.

For det tredje skal en AI-virksomhed udvikle robuste og skalerbare algoritmer . For at opnå dette er der tre must-haves:en stor mængde velmærkede data (som diskuteret ovenfor), det rigtige talent og tilliden til, at deep learning er den rigtige teknologi til at løse problemet. AI-virksomhed skal have det rigtige talent til at udvikle de nødvendige algoritmer, men disse er højt specialiserede, dyre og sparsomme. For eksempel, da jeg søgte at ansætte til min startup, opdagede jeg, at jeg som minimum havde brug for dataforskere (normalt PhD'er) til at udvikle algoritmeprototyper, ingeniører til at designe rammer, programmører (TensorFlow, Python, C++ osv.) til at kode ind i skalerbare programmer, og folk til at sætte dem sammen (produktchef, UX, UI osv.).

En anden overvejelse er computerkraft . Hvorfor? Fordi deep learning neurale netværk kræver meget mere beregning end de andre AI-metoder. For eksempel, til den samme opgave med at identificere en hund i et billede, kan træning af modellen ved hjælp af en ikke-dyb indlæringsalgoritme muligvis have brug for 10 statistiske modeller givet et datasæt på 1 GB. Modellen med dybe neurale netværk kan for eksempel have brug for 1000 statistiske modeller, der kører gennem et datasæt på 100 GB. Resultaterne er bedre ved brug af netværk, men den nødvendige beregningskraft er langt større. Som et resultat kræver disse modeller ikke kun én computer (som hvad vi gør på vores personlige computer), men distribueret databehandling med hver GPU, der håndterer f.eks. 5 % af beregningen, så 20 GPU'er tilsammen kan håndtere den nødvendige beregningsvolumen. Dette betyder til gengæld, at du skal bygge dine egne GPU-klyngeservere eller leje computerkraften fra platforme som AWS. Computerkraft fra enten cloud computing eller dine egne servere er dyrt, selv om enhedsomkostningerne for computere skal være konstant faldende (i henhold til Moores lov).

Konklusion

Mange mener, at det nu er det bedste tidspunkt at se AI-gennembrud og opstart, fordi digitaliseringen af ​​mange industrier og forbrugerinternet gør en stor mængde målrettet indsamlede, rent organiserede digitale data tilgængelige. Udviklingen af ​​Nvidias GPU og Intels FPGA gør det meget billigere og hurtigere at foretage de nødvendige beregninger. Den nuværende AI-bølge af innovation er derfor drevet af vigtige fremskridt inden for deep learning .

Men for at en AI-applikation skal lykkes, har man brug for et veldefineret ønskeligt problem, data, algoritme og betydelig computerkraft. For ledere, der læser denne artikel og overvejer at bruge kunstig intelligens til at styrke deres virksomhed, gælder de fire ovennævnte nøglekomponenter også.

Hvordan kan du lære mere om AI? Der er masser af bøger, seminarer, Coursera-kurser, forskningsartikler og organisationer som Deep Learning for at lære om AI. Fordi fokus i denne artikel er for investorer, der ønsker at kende det grundlæggende i AI, berørte jeg ikke mange af de hotte AI-emner, såsom potentialet for AI som en trussel, industriens fremtidsudsigter, AI-investeringer, fordelene og ulemper ved forskellige algoritmer (f.eks. CNN), prototyping vs. skalering, større programmeringssprog osv. I del 2 af denne serie vil jeg dykke ned i, hvordan man kan evaluere AI-virksomheder fra et investorperspektiv.


Virksomhedsfinansiering
  1. Regnskab
  2. Forretningsstrategi
  3. Forretning
  4. Administration af kunderelationer
  5. finansiere
  6. Lagerstyring
  7. Personlig økonomi
  8. investere
  9. Virksomhedsfinansiering
  10. budget
  11. Opsparing
  12. forsikring
  13. gæld
  14. gå på pension