Odpowiedzi na Twoje pytania

Dla Gemini w Google Workspace, Google zapewnia, że Twoje treści nie są przeglądane przez ludzi ani wykorzystywane do szkolenia modeli generatywnej AI spoza Twojej domeny bez Twojej zgody. Interakcje pozostają w Twojej organizacji. W przypadku API Gemini (dla programistów), dane (zapytania, kontekst, odpowiedzi) są przechowywane przez 55 dni w celu monitorowania nadużyć, ale nie są wykorzystywane do szkolenia ani dostrajania modeli AI/ML.

Tak, Gemini AI jest projektowane z myślą o zgodności z kluczowymi standardami branżowymi i regulacjami. Może wspierać obciążenia robocze wymagające zgodności z HIPAA, pod warunkiem zawarcia odpowiednich Umów Współpracy Biznesowej (BAA) i prawidłowego wdrożenia. Ponadto, Google posiada szereg uznanych certyfikatów i atestacji, takich jak SOC 1/2/3, ISO 27017/18, ISO 42001 (dotyczący Systemów Zarządzania AI), US FedRAMP High oraz German BSI C5, co potwierdza wysoki poziom bezpieczeństwa i zgodności w różnych jurysdykcjach i sektorach.

Więcej oficjalnych informacji i szczegółowej dokumentacji dotyczącej bezpieczeństwa Gemini AI dla przedsiębiorstw można znaleźć w różnych zasobach Google. Warto zapoznać się z dokumentacją Google Cloud Vertex AI, szczególnie w sekcjach poświęconych generatywnej AI i konfigurowalnym filtrom bezpieczeństwa. Obszerne informacje na temat prywatności generatywnej AI w Workspace są dostępne w Centrum Prywatności Google Workspace. Dodatkowo, blog Google Cloud i Google AI regularnie publikuje aktualizacje i artykuły dotyczące postępów w AI i ich zabezpieczeń. Bardziej szczegółowe techniczne aspekty, takie jak obrona przed atakami, są często omawiane w publikacjach naukowych Google DeepMind.