GPT-4 Kommer: Et Blikk Inn I Fremtiden Til AI

shutterstock.jpg

GPT-4, blir sagt av noen å være "neste nivå" og forstyrrende, men hva vil virkeligheten være?

CEO Sam Altman svarer på spørsmål om GPT-4 og fremtiden til AI.

Hint om at GPT-4 vil være multimodal AI?

I en podcast-intervju (AI for the Next Era) fra 13. september 2022, diskuterte OpenAI-sjefen Sam Altman den nære fremtiden til AI-teknologi.

Av spesiell interesse er at han sa at en multimodal modell var i nær fremtid.

Multimodal betyr evnen til å fungere i flere moduser, som tekst, bilder og lyd.

OpenAI samhandler med mennesker gjennom tekstinndata. Enten det er Dall-E eller ChatGPT, er det strengt tatt en tekstbasert interaksjon.

En AI med multimodale evner kan samhandle gjennom tale. Den kan lytte til kommandoer og gi informasjon eller utføre en oppgave.

Altman ga disse fristende detaljene om hva vi kan forvente snart:

«Jeg tror vi vil få multimodale modeller ganske snart, og det vil åpne opp for nye ting.

Jeg synes folk gjør fantastisk arbeid med agenter som kan bruke datamaskiner til å gjøre ting for deg, bruke programmer og denne ideen om et språklig grensesnitt der du sier et naturlig språk - det du ønsker i denne typen dialog fram og tilbake.

Du kan iterere og forbedre det, og datamaskinen bare gjør det for deg.

Du ser noe av dette med DALL-E og CoPilot på svært tidlige stadier.»

Altman sa ikke spesifikt at GPT-4 vil være multimodal. Men han antydet at det var på vei innenfor en kort tidsramme.

Spesielt interessant er at han ser for seg multimodal kunstig intelligens som en plattform for å bygge nye forretningsmodeller som ikke er mulig i dag.

Han sammenlignet multimodal AI med den mobile plattformen og hvordan det åpnet muligheter for tusenvis av nye selskaper og jobber.

Altman sa:

"...Jeg tror dette kommer til å bli en massiv trend, og veldig store bedrifter vil bli bygget med dette som grensesnitt, og mer generelt [tror jeg] at disse svært kraftige modellene vil være en av de ekte nye teknologiske plattformene, som vi egentlig ikke har hatt siden mobiltelefonen.

Og det er alltid en eksplosjon av nye selskaper rett etterpå, så det blir kult."

Da han ble spurt om hva neste utviklingsstadium for AI var, svarte han med hva han sa var funksjoner som var sikre.

“Jeg tror vi vil få sanne multimodale modeller til å fungere.

Og så ikke bare tekst og bilder, men enhver modalitet du har i én modell kan enkelt og flytende bevege seg mellom ting.”

AI-modeller som selvforbedrer seg?

Noe som ikke blir snakket så mye om er at AI-forskere ønsker å skape en AI som kan lære av seg selv.

Denne evnen går utover spontant å forstå hvordan man gjør ting som å oversette mellom språk.

Den spontane evnen til å gjøre ting kalles emergens. Det er når nye evner oppstår ved å øke mengden treningdata.

Men en AI som lærer av seg selv er noe helt annet som ikke er avhengig av hvor stor treningsdataen er.

Hva Altman beskrev er en kunstig intelligens som faktisk lærer og oppgraderer sine evner selv.

I tillegg går denne typen AI utover versjonsparadigmet som programvare tradisjonelt følger, der et selskap lanserer versjon 3, versjon 3.5, og så videre.

Han forestiller seg en AI-modell som blir trent og deretter lærer på egen hånd, og vokser av seg selv til en forbedret versjon.

Altman indikerte ikke at GPT-4 vil ha denne funksjonaliteten.

Han la dette bare ut der som noe de streber etter, tydeligvis noe som er innenfor rekkevidden av en klar mulighet.

Han forklarte en AI med evnen til å lære av seg selv:

«Jeg tror vi vil ha modeller som kontinuerlig lærer.»

«Akkurat nå, hvis du bruker GPT-hva-som-helst, er det låst i den tiden den ble trent. Og jo mer du bruker den, blir den ikke bedre og alt det der.»

«Jeg tror vi får endret på det.»

«Så jeg er veldig spennende for alt dette.»

Det er uklart om Altman snakket om kunstig generell intelligens (AGI), men det høres litt slik ut.

Altman debunkerte nylig ideen om at OpenAI har en AGI, som sitert senere i denne artikkelen.

Altman ble oppfordret av intervjueren til å forklare hvordan alle ideene han snakket om var faktiske mål og mulige scenarioer, og ikke bare meninger om hva han ønsket at OpenAI skulle gjøre.

Intervjueren spurte:

«Så en ting jeg tror ville være nyttig å dele - fordi folk ikke innser at du faktisk gjør disse sterke spådommene fra et ganske kritisk synspunkt, ikke bare 'Vi kan erobre det fjellet' ...»

Altman forklarte at alt dette han snakker om er basert på forskning og gir dem muligheten til å velge det neste store prosjektet med trygghet.

Han delte,

«Vi liker å lage prognoser der vi kan være på fremkanten, forstå forutsigbart hvordan skalalover ser ut (eller allerede har gjort forskningen) der vi kan si: 'Ok, denne nye tingen vil fungere og lage prognoser ut fra det'.

Og det er slik vi prøver å drive OpenAI, ved å gjøre det neste som står foran oss når vi har høy tillit, og bruke 10% av selskapet til å bare helt gå på oppdagelsesferd, noe som har ført til enorme seire.»

Kan OpenAI nå nye milepæler med GPT-4?

En av de tingene som er nødvendig for å drive OpenAI, er penger og enorme mengder dataresurser.

Microsoft har allerede investert tre milliarder dollar i OpenAI, og ifølge New York Times er de i samtaler om å investere ytterligere 10 milliarder dollar.

The New York Times meldte at GPT-4 forventes å bli lansert i første kvartal av 2023.

Det ble antydet at GPT-4 kan ha multimodal kapabiliteter, med referanse til en risikokapitalist ved navn Matt McIlwain som har kunnskap om GPT-4.

The Times rapporterte:

«OpenAI jobber med et enda kraftigere system kalt GPT-4, som kan bli lansert allerede denne kvartalet, ifølge Mr. McIlwain og fire andre personer som har kjennskap til arbeidet.»

...Bygd ved hjelp av Microsofts enorme nettverk av datalagre, kan den nye chatboten være et system som ligner ChatGPT, som utelukkende genererer tekst. Eller den kan håndtere både bilder og tekst.

Noen venturekapitalister og Microsoft-ansatte har allerede sett tjenesten i praksis.

Men OpenAI har ennå ikke bestemt om det nye systemet vil bli utgitt med funksjoner som innebærer bilder.

Pengene følger OpenAI

Mens OpenAI ikke har delt detaljene med offentligheten, har de delt detaljer med venture finansieringsmiljøet.

Det pågår for tiden samtaler som vil verdsette selskapet så høyt som $29 milliarder.

Det er en bemerkelsesverdig prestasjon fordi OpenAI tjener for tiden ikke betydelig inntekt, og den nåværende økonomiske situasjonen har ført til lavere verdsettelse av mange teknologiselskaper.

Observatøren rapporterte:

“Venturekapitalselskapene Thrive Capital og Founders Fund er blant investorene interessert i å kjøpe totalt 300 millioner dollar verdt av OpenAI-aksjer, ifølge Journal. Avtalen er strukturert som et tilbud om oppgjør, der investorene kjøper aksjer fra eksisterende aksjeeiere, inkludert ansatte.”

Den høye verdsettelsen av OpenAI kan sees som en gyldiggjøring for fremtiden til teknologien, og den fremtiden er for øyeblikket GPT-4.

Sam Altman svarer på spørsmål om GPT-4

Sam Altman ble nylig intervjuet for StrictlyVC-programmet, der han bekrefter at OpenAI jobber med en videomodell, noe som høres utrolig ut, men som også kan føre til alvorlige negative konsekvenser.

Selv om det ikke ble sagt at videodelen var en del av GPT-4, var det av interesse og muligens relatert at Altman var tydelig på at OpenAI ikke ville lansere GPT-4 før de var sikre på at det var trygt.

Den relevante delen av intervjuet skjer på det 4:37 minuttmerket:

Intervjueren spurte:

«Kan du kommentere om GPT-4 kommer ut i første kvartal, første halvdel av året?»

Sam Altman svarte:

«Det vil komme ut på et tidspunkt når vi er trygge på at vi kan gjøre det trygt og ansvarlig.

Jeg tror generelt at vi vil slippe teknologi mye saktere enn det folk ønsker.

Vi kommer til å sitte på den mye lenger enn det folk ønsker.

Til slutt vil folk være fornøyde med vår tilnærming til dette.

Men på den tiden innså jeg at folk vil ha den skinnende leken, og det er frustrerende, og det forstår jeg helt.»

Twitter er full av rykter som er vanskelige å bekrefte. En ubekreftet rykte går ut på at den vil ha 100 trillioner parametere (sammenlignet med GPT-3s 175 milliarder parametere).

Den ryktet ble avvist av Sam Altman i StrictlyVC-intervjuprogrammet, der han også sa at OpenAI ikke har kunstig generell intelligens (AGI), som er evnen til å lære alt en menneske kan.

Altman kommenterte:

"Jeg så det på Twitter. Det er fullstendig t——t."

Ryktebørsen til GPT er som en latterlig greie.

…Folk ber om å bli skuffet, og det kommer de til å bli.

...Vi har ikke en faktisk AGI, og jeg tror det er det som forventes av oss, og ja ... vi kommer til å skuffe de menneskene."

Mange rykter, få fakta

De to pålitelige faktorene om GPT-4 er at OpenAI har vært kryptisk om GPT-4 til det punktet der offentligheten vet nesten ingenting, og den andre faktoren er at OpenAI ikke vil slippe et produkt før det vet at det er trygt.

Så på dette tidspunktet er det vanskelig å si med sikkerhet hvordan GPT-4 vil se ut og hva den vil være i stand til.

Men en tweet av teknologiskribent Robert Scoble hevder at det vil være neste nivå og en forstyrrelse.

Også les: Kan AI utføre SEO? Eksperimentering med OpenAI's GPT-3

Relaterte Artikler

Se mer >>

Lås opp kraften til AI med HIX.AI!