Công nghệ V2A của Google DeepMind được đánh giá là 'mảnh ghép thiếu sót cuối cùng để sản xuất phim bằng AI'
Công nghệ Video-to-Audio (V2A) của Google DeepMind đánh dấu bước tiến quan trọng trong công nghệ sản xuất phim AI, vượt qua hạn chế lớn của các công cụ hiện tại: thiếu âm thanh tự nhiên. Công nghệ này phân tích từng pixel trong video và sử dụng hướng dẫn văn bản để tạo ra nhạc nền phù hợp với nội dung đang chiếu.

Các công cụ tạo video AI như Sora của OpenAI, Dream Machine của Luma AI, Gen-3 Alpha của Runway và Veo của Google thu hút sự chú ý với khả năng tạo ra các đoạn video sống động và chân thực. Tuy nhiên, việc thiếu âm thanh đồng hành đã giới hạn khả năng áp dụng trong ngành công nghiệp phim ảnh. V2A của Google được đánh giá cao vì không chỉ khắc phục hạn chế này mà còn mở ra nhiều khả năng sáng tạo cho nhà làm phim chuyên nghiệp và người dùng bình thường, giúp họ sáng tạo tự do hơn với nhiều công cụ AI khác để tạo ra các bộ phim theo ý muốn.

Theo Google, V2A có khả năng 'tạo ra số lượng âm nhạc không giới hạn cho bất kỳ video nào, ứng với mọi cảnh trong đoạn phim'. Điều này cho thấy sự linh hoạt của công cụ trong việc cung cấp âm thanh đa dạng cho các tình huống khác nhau trong một bộ phim.
Mặc dù công nghệ này mở ra nhiều tiềm năng, Google cũng nhận thức được nguy cơ sử dụng sai mục đích của công cụ này. Vì vậy, công ty đã công bố rằng dự án này đang trong giai đoạn nghiên cứu và chưa có kế hoạch cung cấp truy cập rộng rãi. 'Trước khi xem xét việc mở rộng quyền truy cập cho công chúng, công nghệ V2A sẽ trải qua quy trình đánh giá và thử nghiệm an toàn nghiêm ngặt', đại diện của Google nói.
