Trong thế giới công nghệ hiện đại, cảm biến LiDAR và ToF đều đang chiếm spotlight. LiDAR thường xuất hiện trên các thiết bị Apple, trong khi ToF đã nâng đẳng điện thoại Samsung lên một tầm cao mới. Điều gì làm nên sự khác biệt giữa chúng?
1. ToF là gì?
ToF (Time of Flight) sử dụng tốc độ ánh sáng (bao gồm cả âm thanh) để đo khoảng cách. Nó đo thời gian ánh sáng (âm thanh) di chuyển từ thiết bị đến đối tượng, sau đó quay trở lại.
Các cảm biến ToF có khả năng lấy nét với tốc độ lên đến 160 khung hình/giây. Điều này giúp công nghệ này áp dụng cho việc làm mờ nền và làm nổi bật chủ thể trong hình ảnh, video ngay cả khi chúng đang di chuyển.
Để hiểu thêm về công nghệ cảm biến ToF 3D, hãy nhấn vào: TẠI ĐÂY.

2. LiDAR là gì?
LiDAR (Light Detection and Ranging) là phương pháp đo khoảng cách tới mục tiêu bằng cách chiếu sáng mục tiêu bằng tia LASER và đo các xung phản xạ bằng cảm biến.
LiDAR có khả năng xác định khoảng cách và kích thước vật thể với độ chính xác tương đối trong khoảng cách nhỏ. Dữ liệu này sau đó có thể được sử dụng để tạo ra mô hình 3D của vật thể hoặc bản đồ địa hình khu vực.

Mặc dù LiDAR mới xuất hiện trên smartphone, công nghệ này đã tồn tại từ một thời gian. LiDAR có thể được sử dụng từ việc lập bản đồ môi trường dưới nước đến khám phá các địa điểm khảo cổ.
3. ToF và LiDAR: Cảm biến nào vượt trội?
Ví dụ: ToF và Depth API của Google gặp khó khăn khi hiểu các mặt phẳng lớn, điều này làm khó khăn trong việc xác định chính xác các đối tượng kỹ thuật số trên các bề mặt rộng. Các ứng dụng sử dụng LiDAR ít gặp vấn đề này hơn.

LiDAR giúp máy tính đọc dữ liệu Point cloud dễ dàng hơn so với Depth map. Ưu điểm của ToF so với LiDAR là ToF không cần nhiều thiết bị chuyên dụng, giúp làm nhỏ kích thước và giảm chi phí.
Point cloud: Đám mây điểm là tập hợp các điểm dữ liệu trong không gian, thể hiện hình dạng hoặc đối tượng 3D. Depth map: Trong đồ họa máy tính 3D, Depth map là hình ảnh chứa thông tin về khoảng cách bề mặt của đối tượng từ một điểm nhìn.
4. Cách ToF và LiDAR ứng dụng trong AR
Dữ liệu về bản đồ độ sâu và điểm đám mây thường được đánh giá cao, nhưng đối với một số người dùng, chúng có thể chưa đủ. Trong hầu hết các ứng dụng AR, cần chuyển đổi dữ liệu để phù hợp với môi trường xung quanh.
Cả ToF và LiDAR hoạt động chung với các cảm biến khác trên thiết bị di động. Điều này đòi hỏi nền tảng phải hiểu rõ hướng chuyển động của điện thoại.

5. Apple và Google ưa dụng cảm biến độ sâu khác nhau: Nguyên nhân?
Khi tung ra thị trường các thiết bị hỗ trợ LiDAR như iPhone, iPad, Apple tuyên bố họ sẽ 'thiết lập quy trình chuyên nghiệp hóa để hỗ trợ các ứng dụng ảnh và video chuyên nghiệp'. iPad Pro được đánh giá là 'thiết bị tốt nhất trên thế giới cho AR'.
Google không giải thích tại sao Depth API và dòng thiết bị mới của họ không sử dụng LiDAR. Hợp tác với LiDAR giúp thiết bị Android trở nên nhẹ hơn và giá cả phải chăng, mang lại ưu thế lớn về khả năng tiếp cận.

Với nhiều công ty sản xuất thiết bị Android, việc sử dụng LiDAR sẽ được ưu tiên cho các loại máy tương thích với LiDAR hơn so với các loại khác.
Trong thực tế, Depth API của Google là một giải pháp không khả thi. Xây dựng Depth API có thể khiến trải nghiệm AR của Google có thể chạy trên thiết bị của Apple.
Các sản phẩm điện thoại đang được phân phối trên MytourBài viết này mang đến thông tin sâu rộng về cảm biến ToF và LiDAR. Hy vọng nó sẽ là nguồn kiến thức hữu ích cho bạn!