Đại học Chicago’s Glaze và Nightshade Cung Cấp Cho Nghệ Sĩ Một Biện Pháp Phòng Vệ Chống Lại AI
Đang vội? Dưới đây là những thông tin nhanh!
- Glaze và Nightshade bảo vệ công việc của các nghệ sĩ khỏi việc sử dụng đào tạo AI không được phép.
- Glaze che giấu hình ảnh để ngăn AI sao chép phong cách của một nghệ sĩ.
- Nightshade làm gián đoạn AI bằng cách thêm các pixel “bị độc” làm hỏng dữ liệu đào tạo.
Các nghệ sĩ đang đấu tranh chống lại các mô hình AI lợi dụng bằng cách sử dụng Glaze và Nightshade, hai công cụ được phát triển bởi Ben Zhao và đội ngũ của ông tại SAND Lab của Đại học Chicago, như được báo cáo hôm nay bởi MIT Technology Review.
Những công cụ này nhằm bảo vệ các tác phẩm nghệ thuật khỏi việc bị sử dụng mà không có sự đồng ý để huấn luyện các mô hình AI, một thực hành mà nhiều người sáng tạo xem như là hành vi ăn cắp. Glaze, đã được tải về hơn 4 triệu lần kể từ khi ra mắt vào tháng 3 năm 2023, che giấu hình ảnh bằng cách thêm những thay đổi tế nhị mà ngăn chặn AI không thể học được phong cách của nghệ sĩ, theo MIT.
Nightshade, một “đối tác” gây rối, làm gián đoạn thêm các mô hình AI bằng cách giới thiệu những thay đổi vô hình có thể làm hỏng quá trình học của AI nếu được sử dụng trong quá trình đào tạo, như MIT đã ghi nhận.
Các công cụ này được lấy cảm hứng từ những lo ngại của các nghệ sĩ về sự tăng trưởng nhanh chóng của AI sinh học, thường dựa vào hình ảnh trực tuyến để tạo ra các tác phẩm mới. MIT báo cáo rằng họa sĩ minh họa thần thoại Karla Ortiz và các tác giả khác đã bày tỏ nỗi sợ mất công ăn việc làm khi các mô hình AI tái tạo phong cách độc đáo của họ mà không có sự cho phép hoặc thanh toán.
Đối với các nghệ sĩ, việc đăng tải lên mạng là quan trọng về mặt khả năng nhìn thấy và thu nhập, tuy nhiên, nhiều người đã cân nhắc việc gỡ bỏ tác phẩm của mình để tránh bị sao chép cho việc huấn luyện AI, một hành động có thể cản trở sự nghiệp của họ, như MIT đã ghi chú.
Nightshade, được ra mắt một năm sau Glaze, mang đến một phương pháp bảo vệ mạnh mẽ hơn, theo báo cáo của MIT. Bằng cách thêm các pixel “bị độc” vào hình ảnh, nó làm gián đoạn quá trình huấn luyện AI, khiến cho các mô hình tạo ra kết quả bị méo mó nếu những hình ảnh này bị sao chép.
Ý nghĩa biểu trưng của Nightshade đã tạo tiếng vang với các nghệ sĩ, họ coi đó như một sự công bằng thi hào: nếu tác phẩm của họ bị đánh cắp để huấn luyện AI, nó có thể gây hại cho chính hệ thống đang khai thác nó.
MIT cho rằng các công cụ này đã đối mặt với một số sự hoài nghi, khi các nghệ sĩ ban đầu lo ngại về việc bảo mật dữ liệu. Để giải quyết điều này, SAND Lab đã phát hành một phiên bản của Glaze hoạt động ngoại tuyến, đảm bảo không có sự truyền tải dữ liệu và tạo dựng lòng tin với các nghệ sĩ đề phòng bị khai thác.
Phòng thí nghiệm cũng mới đây đã mở rộng quyền truy cập bằng cách hợp tác với Cara, một nền tảng xã hội mới cấm nội dung được tạo ra bởi AI, như đã được MIT ghi chú.
Zhao và đội ngũ của anh ấy nhằm thay đổi sự cân đối quyền lực giữa các nhà sáng tạo cá nhân và các công ty AI.
Bằng cách cung cấp những công cụ bảo vệ sự sáng tạo khỏi những tập đoàn lớn, Zhao hy vọng sẽ trao quyền cho các nghệ sĩ để duy trì quyền kiểm soát công việc của mình và định rõ lại các tiêu chuẩn đạo đức xung quanh AI và quyền sở hữu trí tuệ, theo như MIT cho biết.
Nỗ lực này đang dần dần thúc đẩy, nhưng một số chuyên gia cảnh báo rằng những công cụ này có thể không cung cấp sự bảo vệ hoàn toàn an toàn, vì các hacker và nhà phát triển AI tìm cách vượt qua những biện pháp bảo vệ này, như MIT đã ghi nhận.
Với Glaze và Nightshade bây giờ có thể truy cập miễn phí, SAND Lab của Zhao tiếp tục đứng đầu trong việc bảo vệ sự toàn vẹn nghệ thuật chống lại sự mở rộng của ảnh hưởng của việc tạo nội dung do AI điều khiển.
Để lại bình luận
Hủy