Cztery zasady bezpiecznego korzystania z AI. Nie popełnij tych błędów

4 dni temu 13

SPIS TREŚCI

  1. Traktuj chatboty jak publiczny słup informacyjny
  2. Używaj modeli korporacyjnych
  3. Usuwaj historię rozmów
  4. Wybieraj sprawdzone chatboty

Harsh Varshney, inżynier Google specjalizujący się w bezpieczeństwie i prywatności, podzielił się swoimi doświadczeniami i radami dotyczącymi ochrony danych w kontekście korzystania z narzędzi sztucznej inteligencji. Jego praca w Google obejmuje m.in. ochronę użytkowników przeglądarki Chrome przed zagrożeniami cybernetycznymi, w tym atakami phishingowymi z wykorzystaniem AI.

Jakie zasady wyznaje Varshney podczas korzystania z chatbotów?

Dlaczego warto używać modeli korporacyjnych zamiast publicznych?

Jak często należy usuwać historię rozmów z chatbotami?

Jakie chatboty rekomenduje Varshney do użytkowania?

Jakie zasady wyznaje on podczas korzystania z chatbotów? W rozmowie z Business Insider wymienił on cztery zasady.

Traktuj chatboty jak publiczny słup informacyjny

Varshney przestrzega przed udostępnianiem chatbotom danych osobowych, takich jak numery kart kredytowych, adresy domowe czy informacje medyczne. Porównuje chatboty do publicznej tablicy — jeśli nie napisałbyś czegoś, co mogłoby zostać przeczytane przez każdego, nie powinieneś udostępniać tych informacji narzędziom AI.

— Traktuję chatboty AI jak publiczną pocztówkę. Jeśli nie napisałbym informacji na pocztówce, która mogłaby być widoczna dla każdego, nie udostępniłbym jej publicznemu narzędziu AI — mówi Varshney.

Używaj modeli korporacyjnych

Inżynier Google zwraca uwagę na różnicę między publicznymi narzędziami AI a modelami klasy korporacyjnej. Publiczne chatboty mogą wykorzystywać dane użytkowników do szkolenia, co sprawia, że są mniej bezpieczne w przypadku omawiania poufnych projektów. Modele korporacyjne, jak tłumaczy Varshney, są bardziej odpowiednie do takich zadań, ponieważ nie wykorzystują rozmów do trenowania algorytmów.

— Nie omawiam projektów, nad którymi pracuję w Google, z publicznymi chatbotami. Zamiast tego korzystam z modelu korporacyjnego, nawet w przypadku tak drobnych zadań jak edycja służbowej wiadomości e-mail — podkreśla.

Usuwaj historię rozmów

Varshney zaleca regularne usuwanie historii rozmów z chatbotami, zarówno w modelach publicznych, jak i korporacyjnych.

Aby uniknąć niebezpiecznych sytuacji, inżynier korzysta z trybów, które nie zapisują historii rozmów, takich jak „czat tymczasowy” w ChatGPT czy Gemini. Dzięki temu użytkownik ma większą kontrolę nad swoimi danymi.

Wybieraj sprawdzone chatboty

Bezpieczeństwo danych zależy również od wyboru odpowiednich narzędzi. Varshney rekomenduje korzystanie z dobrze znanych platform, takich jak produkty Google, ChatGPT od OpenAI czy Claude od Anthropic. Podkreśla również znaczenie zapoznania się z polityką prywatności każdego z nich.

Przeczytaj źródło