Samsung-ansatts bruk av ChatGPT fører til lekkasje av konfidensielle data

Uten_tittel-design-3 (1).png

Samsungs halvlederdivisjon stolte på ChatGPT for å hjelpe med å løse problemer i kildekoden sin. Imidlertid, mens de brukte AI-chatboten, utilsiktet avslørte de konfidensiell informasjon som kildekoden til et nytt program og interne møtenotater om maskinvaren deres. Dessverre var dette ikke et isolert tilfelle, da det ble rapportert tre hendelser innenfor en måned.

For å unngå lignende brudd i fremtiden, jobber Samsung nå med å utvikle sin egen AI-verktøy, lignende ChatGPT, som er eksklusivt for intern bruk blant ansatte. Dette vil gjøre det mulig for fabrikkarbeiderne å få rask hjelp samtidig som de sikrer selskapets sensitive informasjon. Imidlertid vil dette nye verktøyet bare behandle inndata som er 1024 byte eller mindre.

Problemet oppsto fordi ChatGPT blir administrert av et tredjeparts selskap som bruker eksterne servere. Derfor, da Samsung la inn sin kode, testsekvenser og internmøteinnhold i programmet, lekker det data. Samsung informerte raskt sin ledelse og ansatte om risikoen for kompromittert konfidensiell informasjon. Frem til 11. mars tillot ikke Samsung sine ansatte å bruke chatboten.

Samsung er ikke det eneste selskapet som sliter med dette problemet. Mange selskaper begrenser bruken av ChatGPT inntil de etablerer en klar policy angående bruken av generativ AI. Selv om ChatGPT tilbyr et alternativ for å nekte innsamling av brukerdata, er det verdt å merke seg at informasjonen som sendes til tjenesten fremdeles kan bli tilgjengelig for utvikleren.

Hva er ChatGPT og hvordan fungerer det?

ChatGPT er en AI-applikasjon utviklet av OpenAI som bruker dyp læring for å produsere menneskelignende tekst som svar på brukerforespørsler. Den kan generere tekst i ulike stiler og for forskjellige formål, inkludert å skrive tekst, svare på spørsmål, utforme e-poster, holde samtaler, oversette naturlig språk til kode og forklare kode i ulike programmeringsspråk.

ChatGPT fungerer ved å forutsi det neste ordet i en gitt tekst ved å bruke mønstre den har lært gjennom en stor mengde data under opplæringen sin. Ved å analysere sammenhengen i forespørselen og dens tidligere læring, genererer ChatGPT et svar som er ment å være så naturlig og sammenhengende som mulig.

Hvilke tiltak har Samsung tatt for å forhindre fremtidige lekkasjer?

Etter datalekkasjene forårsaket av ChatGPT, har Samsung tatt flere tiltak for å hindre at slike hendelser skjer igjen. For det første har selskapet rådet sine ansatte til å være forsiktige når de deler data med ChatGPT. De har også innført en begrensning på lengden av spørsmål som sendes inn til tjenesten, og begrenser dem til 1024 byte.

I tillegg utvikler Samsung for øyeblikket et AI-verktøy som er likt ChatGPT, men eksklusivt for intern bruk blant de ansatte. Dette vil sikre at fabrikkarbeidere får rask hjelp samtidig som sensitiv informasjon beskyttes. Frem til utviklingen av dette verktøyet har Samsung advart sine ansatte om de potensielle risikoene ved å bruke ChatGPT. De har også påpekt at data som legges inn i ChatGPT blir sendt og lagret på eksterne servere, noe som gjør det umulig for selskapet å ha kontroll over dataene når de er overlevert.

Hva var konsekvensene for de ansatte som lekket konfidensiell informasjon?

Konsekvensene for Samsung-ansatte som lekket konfidensielle data til ChatGPT er ikke eksplisitt oppgitt i den tilgjengelige informasjonen. Imidlertid tar Samsung Electronics tiltak for å forhindre ytterligere lekkasje av sensitiv informasjon gjennom ChatGPT, inkludert å pålegge en grense på 1024 bytes for størrelsen på innsendte spørsmål. Selskapet har også advart sine ansatte om de potensielle risikoene ved å bruke ChatGPT.

Samtidig utvikler Samsung Semiconductor sitt eget AI-verktøy for intern bruk av ansatte, som vil være begrenset til å behandle forespørsler under 1024 bytes. Disse handlingene viser at Samsung tar beskyttelsen av sin konfidensielle informasjon på alvor og implementerer tiltak for å redusere risikoen forbundet med bruken av ChatGPT.

Hvilken type konfidensiell informasjon ble lekket?

Hvor mange ganger har Samsung-ansatte lekket konfidensiell data til ChatGPT?

I henhold til søkeresultatene har ansatte i Samsung lekket konfidensiell selskapsinformasjon til ChatGPT minst tre ganger.

Relaterte Artikler

Se mer >>

Lås opp kraften til AI med HIX.AI!