O eroare a ChatGPT a făcut publice conversațiilor utilizatorilor și a stârnit îngrijorări în privința gradului de confidențialitate pe platformă

O eroare a ChatGPT a făcut publice conversațiilor utilizatorilor și a stârnit îngrijorări în privința gradului de confidențialitate pe platformă

O eroare a ChatGPT a permis unor utilizatori să vadă istoricul conversațiilor altor utilizatori, a declarat șeful chatbot-ului de inteligență artificială. Pe site-urile de socializare Reddit și Twitter, utilizatorii au împărtășit imagini ale istoricului conversațiilor despre care au spus că nu erau ale lor, potrivit BBC.

Eroarea arată că OpenAI are acces la conversațiile utilizatorilor

Directorul general al OpenAI, Sam Altman, a declarat că firma se simte „îngrozitor”, dar că eroarea „semnificativă” a fost acum remediată.

Cu toate acestea, mulți utilizatori sunt în continuare îngrijorați de gradul de confidențialitate pe platformă. Milioane de persoane au folosit ChatGPT pentru a redacta mesaje, a scrie cântece și chiar a codifica de când a fost lansată în luna noiembrie a anului trecut.

Fiecare conversație cu chatbotul este stocată în bara de istoric de chat a utilizatorului, unde poate fi revăzută ulterior.

Însă, încă de luni, utilizatorii au început să vadă că în istoricul lor apar conversații pe care au spus că nu le-au avut cu robotul, arată CNET.

Un utilizator de pe Reddit a împărtășit o fotografie a istoricului său de chat care include titluri precum „Dezvoltarea socialismului chinezesc”, precum și conversații în mandarină.

Marți, compania a declarat pentru Bloomberg că a dezactivat pentru scurt timp chatbotul la sfârșitul zilei de luni pentru a remedia eroarea.

Directorul executiv al OpenAI a scris pe Twitter că va exista în curând un „postmortem tehnic”. Dar eroarea a atras îngrijorarea utilizatorilor care se tem că informațiile lor private ar putea fi făcute publice prin intermediul acestei platforme.

Politica de confidențialitate a companiei spune că datele utilizatorilor, cum ar fi întrebările și răspunsurile, pot fi folosite pentru a continua antrenarea robotului.

Dar aceste date sunt utilizate numai după ce informațiile de identificare personală au fost eliminate.

De asemenea, această gafă vine la doar o zi după ce Google a prezentat robotul Bard unui grup de testeri beta și jurnaliști.

Google și Microsoft, un investitor important în OpenAI, s-au luptat pentru controlul pieței în plină expansiune a instrumentelor de inteligență artificială.

Însă, ritmul actualizărilor și lansărilor de produse noi îi face pe mulți să se teamă că pași greșiți ca aceștia ar putea fi dăunători sau ar putea avea consecințe grave.

Urmăriți B1TV.ro și pe
`