OpenAI, produsenter av ChatGPT, forplikter seg til å utvikle sikre AI-systemer

bilde1.png

OpenAI har publisert en ny blogginnlegg hvor de forplikter seg til å utvikle kunstig intelligens (AI) som er trygg og bredt nyttig.

ChatGPT, drevet av OpenAI sin nyeste modell, GPT-4, kan øke produktiviteten, forbedre kreativiteten og gi skreddersydde læringsopplevelser.

Likevel erkjenner OpenAI at AI-verktøy har innebygde risikoer som må håndteres gjennom sikkerhetstiltak og ansvarlig implementering.

Her er hva selskapet gjør for å redusere disse risikoene.

Sikre sikkerheten i AI-systemer

OpenAI gjennomfører grundige tester, søker ekstern veiledning fra eksperter og forbedrer sine AI-modeller med menneskelig tilbakemelding før de slipper nye systemer.

Utgivelsen av GPT-4, for eksempel, ble etterfulgt av over seks måneders testing for å sikre sikkerheten og tilpasningen til brukernes behov.

OpenAI mener at pålitelige AI-systemer bør bli underkastet grundige sikkerhetsevalueringer og støtter behovet for regulering.

Lære fra virkelige brukssituasjoner

Real-world use er en kritisk komponent i utviklingen av trygge AI-systemer. Ved å forsiktig slippe nye modeller til en gradvis økende brukerbase, kan OpenAI gjøre forbedringer som adresserer uforutsette problemer.

Ved å tilby AI-modeller gjennom sin API og nettsted, kan OpenAI overvåke for misbruk, ta passende handling og utvikle nyanserte retningslinjer for å balansere risiko.

Beskytte barn og respektere personvern

OpenAI prioriterer å beskytte barn ved å kreve aldersverifisering og forby bruk av teknologien sin for å generere skadelig innhold.

Personvern er en annen viktig del av OpenAI's arbeid. Organisasjonen bruker data for å gjøre modellene mer nyttige samtidig som de beskytter brukerne.

I tillegg fjerner OpenAI personlig informasjon fra treningsdatasettene og justerer modellene for å avvise forespørsler om personlig informasjon.

OpenAI vil svare på forespørsler om å slette personlig informasjon fra sine systemer.

Forbedre faktuell nøyaktighet

Faktuell nøyaktighet er et betydelig fokus for OpenAI. GPT-4 er 40% mer sannsynlig å produsere nøyaktig innhold enn sin forgjenger, GPT-3.5.

Organisasjonen streber etter å informere brukere om begrensningene ved AI-verktøy og muligheten for unøyaktigheter.

Fortsettende forskning og engasjement

OpenAI tror på å bruke tid og ressurser på å forske på effektive tiltak og justeringsteknikker.

Imidlertid er ikke det noe den kan gjøre alene. Å ta tak i sikkerhetsproblemer krever omfattende debatt, eksperimentering og engasjement blant interessenter.

OpenAI forplikter seg fortsatt til å fremme samarbeid og åpen dialog for å skape et sikkert AI-økosystem.

Kritikk av eksistensielle risikoer

Til tross for OpenAIs forpliktelse til å sikre sikkerheten og bred nytte av sine AI-systemer, har blogginnlegget deres skapt kritikk på sosiale medier.

Twitter-brukere har gitt uttrykk for skuffelse og hevder at OpenAI ikke tar hensyn til eksistensielle risikoer forbundet med utviklingen av AI.

En Twitter-bruker uttrykte sin skuffelse og anklaget OpenAI for å svikte sin grunnleggende misjon og fokusere på hensynsløs kommersialisering.

Brukeren antyder at OpenAI sin tilnærming til sikkerhet er overfladisk og mer opptatt av å tilfredsstille kritikere enn å håndtere genuin eksistensiell risiko.

Dette er bitende skuffende, innholdsløs PR-vinduspynt.

Du nevner ikke engang de eksistensielle risikoene fra AI som er den sentrale bekymringen til mange borgere, teknologer, AI-forskere og AI-bransjeledere, inkludert din egen CEO @sama. @OpenAI svikter sin...

— Geoffrey Miller (@primalpoly) 5. april 2023

En annen bruker ga uttrykk for misnøye med kunngjøringen, og argumenterte for at den bagatelliserer virkelige problemer og forblir vag. Brukeren påpeker også at rapporten ignorerer kritiske etiske spørsmål og risikoer knyttet til selvbevisst AI, og antyder at OpenAI's tilnærming til sikkerhetsproblemer er utilstrekkelig.

Som en fan av GPT-4, er jeg skuffet over artikkelen din.

Den overflatiserer virkelige problemer, holder seg vag og ignorerer viktige etiske problemstillinger og risikoer knyttet til AI-bevissthet.

Jeg setter pris på innovasjonen, men dette er ikke riktig tilnærming for å takle sikkerhetsproblemer.

— FrankyLabs (@FrankyLabs) 5. april 2023

Kritikken understreker de bredere bekymringene og den pågående debatten om eksistensielle risikoer knyttet til utviklingen av AI.

Mens OpenAI sin kunngjøring omhandler deres engasjement for sikkerhet, personvern og nøyaktighet, er det avgjørende å erkjenne behovet for videre diskusjon for å håndtere mer betydningsfulle bekymringer.

Relaterte Artikler

Se mer >>

Lås opp kraften til AI med HIX.AI!