Mô hình AI của Google Đang Dưới Sự Điều Tra của Châu Âu
Ủy ban Bảo vệ Dữ liệu (DPC) đã thông báo hôm nay một cuộc điều tra vào Google để xem xét liệu công ty có tuân thủ luật bảo vệ dữ liệu EU trong quá trình phát triển mô hình AI của mình, Pathways Language Model 2 (PaLM 2) hay không.
PaLM2 là một mô hình ngôn ngữ lớn được sử dụng trong nhiều dịch vụ AI, bao gồm tổng hợp email. Google đã tuyên bố rằng họ sẽ hợp tác với cuộc điều tra, như được ghi nhận bởi AP.
Cuộc điều tra sẽ đánh giá liệu Google có nên thực hiện Đánh giá Tác động Bảo vệ Dữ liệu (DPIA) để đánh giá những rủi ro tiềm ẩn đối với quyền và tự do của cá nhân từ công nghệ AI của họ hay không.
Cuộc điều tra này là một phần của nỗ lực rộng lớn hơn của DPC nhằm đảm bảo việc tuân thủ các quy định về bảo vệ dữ liệu trong ngành công nghệ AI trên khắp châu Âu. Việc xử lý dữ liệu qua nhiều quốc gia EU hoặc ảnh hưởng đến cá nhân ở nhiều quốc gia khác nhau đang được dành sự quan tâm đặc biệt.
Công cụ AI sinh động, nổi tiếng với khả năng tạo ra thông tin giả mạo nhưng thuyết phục và truy cập dữ liệu cá nhân, đặt ra những rủi ro pháp lý đáng kể, như đã được TechCrunch ghi nhận. DPC, đơn vị chịu trách nhiệm đảm bảo Google tuân thủ Quy định bảo vệ dữ liệu chung (GDPR).
Với mục đích này, DPC có thể áp đặt phạt lên đến 4% doanh thu toàn cầu hàng năm của công ty mẹ Alphabet của Google cho các vi phạm, như đã được báo cáo bởi TechCrunch.
Google đã phát triển một loạt công cụ AI sáng tạo, bao gồm dòng Gemini của mô hình ngôn ngữ lớn (trước đây là Bard) được sử dụng cho nhiều ứng dụng, bao gồm cải thiện tìm kiếm web thông qua AI chatbots, theo TechCrunch.
Trung tâm của những công cụ này là PaLM2 của Google, một mô hình ngôn ngữ lớn cơ bản được ra mắt tại hội nghị phát triển I/O năm trước, TechCrunch cho biết.
Tháng trước, X của Elon Musk cũng đã bị châu Âu điều tra vì việc sử dụng dữ liệu người dùng để đào tạo AI. Cơ quan DPC đã mở cuộc điều tra sau khi nhận được các khiếu nại rằng X đang đưa dữ liệu người dùng vào công nghệ AI Grok mà không có sự đồng ý hợp lệ. Mặc dù X đã đồng ý hạn chế việc xử lý dữ liệu, nhưng nó chưa hề bị xử phạt.
Cuộc điều tra này là một phần của nỗ lực rộng lớn hơn của DPC nhằm điều tiết việc sử dụng dữ liệu cá nhân trong việc phát triển AI trên khắp Liên minh châu Âu. Việc EU gần đây thông qua Đạo luật về Trí tuệ nhân tạo đánh dấu một bước tiến quan trọng trong việc thiết lập một khung điều tiết cho công nghệ AI trong khối.
Để lại bình luận
Hủy