Đường ranh giữa Video Thật và Video Tạo bởi AI Có Thể Biến Mất vào Năm 2025
Nội dung do AI tạo ra đang ở đây để tồn tại. Nó ngày càng tốt hơn và chúng tôi đã thấy sự cải tiến đáng kể trong công nghệ AI vào năm 2024. Liệu chúng ta có thể phân biệt được giữa thực tế và không thực tế vào năm 2025 không?
Gần đây, tôi thấy mình đang tự hỏi: “Đó có phải là một người phụ nữ thật không?” – trong khi nhìn mờ mờ – sau khi nhìn thấy một bài đăng trên Instagram. “Không, đó chắc chắn phải là nội dung do AI tạo ra,” tôi kết luận sau một lúc. Sau đó tôi ngay lập tức tự hỏi: Liệu năm sau chúng ta có còn thể phân biệt được sự khác biệt chỉ trong vài giây không? Tất cả dấu hiệu cho thấy không, đặc biệt là trên các mạng xã hội, như những phát triển gần đây lớn lao trong công nghệ AI đã chỉ ra.
Vài ngày trước, giám đốc Intagram, Adam Mosseri, đã chia sẻ một thông điệp giải quyết vấn đề này trên Threads. “AI sinh động rõ ràng đang sản xuất nội dung khó để phân biệt khỏi các bản ghi thực tế, và đang cải tiến nhanh chóng,” ông viết. Mosseri công khai thừa nhận rằng họ đang gặp khó khăn tại Meta khi gắn thẻ nội dung do AI tạo ra và kiểm soát, giám sát số lượng lớn hình ảnh, video được chia sẻ mỗi giây trên các nền tảng mạng xã hội của họ.
Mosseri đã giải tội cho Meta và cảnh báo người dùng rằng việc phân biệt một bài đăng có thật hay không là do họ. “Việc người xem, hoặc người đọc, có tư duy phân biệt khi họ tiêu thụ nội dung được cho là một tài khoản hoặc bản ghi của thực tế sẽ ngày càng quan trọng,” ông thêm vào.
Chỉ vài ngày sau, OpenAI đã phát hành Sora Turbo, trình tạo video AI mạnh mẽ của họ, cho phép người dùng Pro và Plus tạo ra các video thực tế từ các lời nhắc văn bản. Chỉ trong vài phút, người dùng đã bắt đầu tạo ra những video thực tế đầy hấp dẫn và bắt đầu chia sẻ chúng trên các mạng xã hội.
Ngay khi mọi thứ dường như đạt đến một cấp độ mới của sản xuất video, Google đã công bố công cụ video AI mới nhất của họ, Veo 2, với độ phân giải cao hơn và đoạn video dài hơn so với Sora. Dĩ nhiên, kết quả do những người có quyền truy cập vào công nghệ tiên tiến này chia sẻ thậm chí còn ấn tượng hơn.
“Không ai có thể phán đoán được đây là AI nữa,” một người dùng đã viết.
It’s over.
Google Veo 2 vừa làm sạch sự cạnh tranh và trở thành vị vua mới của thế giới truyền thông AI.
Không ai có thể nhận ra đây là AI nữa.
10 ví dụ hoang dã: pic.twitter.com/MKAN4Lwj6m
— el.cine (@EHuanglu) Ngày 17 tháng 12, 2024
Điều này đã diễn ra
Trong suốt năm 2024, chúng ta đã chứng kiến cách nội dung do AI tạo ra ảnh hưởng đến dân số, cuộc bầu cử và người dùng mạng xã hội.
Vào tháng Một, cư dân New Hampshire đã nhận được cuộc gọi “từ Joe Biden” yêu cầu họ không đi bầu cử trong các cuộc bầu cử sơ bộ. Nhà tư vấn chính trị Steve Kramer đứng sau vụ lừa đảo này và đã bị phạt 6 triệu đô la vì đã sử dụng AI để tạo ra cuộc gọi lừa dối mang giọng của Joe Biden. Các chính phủ đã nhận ra tác động mà AI có thể gây ra và các quốc gia như Singapore đã bắt đầu phát triển các luật pháp và chiến lược để giúp người dân nhận biết nội dung deepfake.
Tại Venezuela, các video do AI tạo ra đã phát tán thông tin sai lệch—nhưng cũng giúp các nhà báo truyền thông tin thông qua các avatar AI để vượt qua sự kiểm duyệt.
Mọi người đang gặp khó khăn trong việc phân biệt thực và ảo, và đó không phải là lỗi của họ: Nội dung do AI tạo ra đang ngày càng hoàn thiện hơn.
Nội dung do AI tạo ra chất lượng cao đang trở thành một lĩnh vực kinh doanh phát triển mạnh mẽ ở tất cả các hình thức; văn bản, âm thanh, và video. Nhiều người sáng tạo OnlyFans hiện nay đang dựa vào chatbot để tham gia vào cuộc trò chuyện với các fan của họ, một công việc trước kia thường được giao cho những người làm công việc tự do ở các nước có thu nhập thấp hơn. Những mô hình AI mới chuyên về kỹ thuật tán tỉnh thậm chí đã tạo ra $1,000 từ tiền tip của người theo dõi.
Vào tháng 4, startup được Nvidia hỗ trợ, Synthesia đã ra mắt những hình đại diện AI có khả năng biểu lộ cảm xúc con người và nói được 130 ngôn ngữ. TikTok đang cho phép các công ty tạo ra quảng cáo được tạo bởi AI sử dụng nội dung từ Getty Images, và bây giờ những người sáng tạo nội dung trên YouTube có thể sử dụng tính năng tự động lồng tiếng mới của AI để dịch nội dung của họ sang 9 ngôn ngữ và các cập nhật tương lai sẽ mô phỏng lại giọng nói gốc.
Zoom đang nỗ lực tạo ra những hình đại diện AI giống hệt người dùng để hỗ trợ họ ghi lại tin nhắn và thậm chí tham gia vào cuộc họp. Công cụ này sẽ được triển khai vào năm sau, nhưng mọi người đã thử nghiệm nhiều công cụ khác và các công ty có thể đã tạo được những bản sao AI rất giống thực tế.
Bạn có chắc chắn rằng bạn đã nói chuyện với một người thật trong cuộc gọi Zoom cuối cùng của mình không?
Làm Thế Nào Để Biết Nếu Nó Được Tạo Ra Bởi AI? Hiện Tại
Chúng ta đang sống trong những thời điểm rối rắm trong kỷ nguyên số này. Các bộ lọc có thể khiến bất kì ai trở thành một người mẫu với làn da hoàn hảo, và những chỉnh sửa đáng giá Photoshop chỉ cần một cú nhấp chuột trên Instagram hoặc Snapchat – có bao nhiêu người muốn chia sẻ hình ảnh “tự nhiên” của mình, với tất cả những khuyết điểm, khi nó có thể được cải thiện trong vài giây? Chúng ta đang nhìn thấy ngày càng nhiều quảng cáo với hình ảnh siêu thực được tạo ra bởi trí tuệ nhân tạo, dần dần thuyết phục đôi mắt của chúng ta về sự quen thuộc và “bình thường” của chúng. Và mỗi ngày, những sự kiện đáng ngạc nhiên trên toàn thế giới khiến chúng ta phải tự hỏi: cái gì là thật, và cái gì không còn là thật nữa?
Các công ty AI lớn đã đang làm việc trên những dấu ấn để nhận biết nội dung do AI tạo ra và nhận dạng nó dễ dàng hơn. Google DeepMind đã ra mắt hệ thống watermark nguồn mở của mình vào tháng 10 để đánh dấu video, văn bản, và âm thanh do AI tạo ra, và Meta cũng đã bao gồm một trong những công cụ video AI của mình.
Tuy nhiên, hiệu quả của nó còn đang là một dấu hỏi, bắt đầu với việc Meta chỉ công nhận rằng họ không thể đánh dấu tất cả nội dung do AI tạo ra. Những tác nhân có ý đồ xấu vẫn có thể tìm ra cách để loại bỏ các dấu ấn và cần thêm nhiều luật lệ, các đối tác và thỏa thuận giữa các công ty truyền thông xã hội và chính phủ để đạt được một hệ thống thành công hơn.
Hiện tại, ngoài việc tin vào trực giác của chúng ta, chúng ta có thể tự đặt cho mình một số câu hỏi trước khi chia sẻ lên mạng xã hội hoặc tin vào những gì chúng ta thấy:
- Giống như Mosseri đã đề nghị, hãy xem xét những điều sau: Ai là người chia sẻ thông tin này? Đây có phải là một nguồn tin cậy không?
- Biểu cảm hay cử chỉ của người đó có cảm giác như robot không? Mặc dù các avatar AI có thể rất chân thực, nhưng vẫn có thể nhận ra sự cứng nhắc lạ hoặc thiếu cảm xúc – mặc dù hãy xem xét rằng một số công ty như Synthesia đã đang cải thiện điều này.
- Nội dung có được thiết kế để gây ra phản ứng cảm xúc mạnh mẽ không? Những kẻ có ý đồ xấu biết rằng chúng ta dễ dàng chia sẻ tin tức tiêu cực và tương tác với nội dung mang tính cảm xúc trên mạng xã hội, và nghiên cứu đã xác nhận điều này. Trước khi chia sẻ nội dung đó đã làm bạn nổi giận để làm cho người khác cũng tức giận như bạn, hãy suy nghĩ xem nó có được thiết kế để gây tranh cãi hay nó thật sự là tin tức thật hay sự kiện thật không.
- Bạn có thể xác minh nội dung với các nguồn khác không? Kiểm tra lại với các nguồn tin cậy không bao giờ là thừa.
Và cuối cùng, bạn đã từng tự hỏi – hoặc hỏi chatbot mà bạn ưa thích – làm thế nào để cải thiện tư duy phản biện của mình chưa? Việc phát triển tư duy phản biện chắc chắn nên nằm trong danh sách những dự định trong năm mới của tất cả mọi người.
Để lại bình luận
Hủy