
Vòng quay thông tin về Facebook đã gây nhiều biến động mạnh mẽ trong vài tuần qua. Đầu tiên, trong một động thái bất ngờ của chính quyền Trump, Bộ Nhà Ở và Phát Triển Đô Thị đã kiện Facebook về vi phạm Đạo Luật Nhà Ở Công Bằng, cáo buộc họ tiến hành các thực hành quảng cáo phân biệt đối xử cho các quảng cáo nhà ở.
Chỉ trong vài ngày, các nhà nghiên cứu tại Đại Học Northeastern đã công bố một bản xem trước của một bài báo mô tả một loạt các thí nghiệm quảng cáo thú vị, cho thấy rằng, thực sự, Facebook đã hiển thị các quảng cáo về nhà ở và việc làm khác nhau theo giới tính và chủng tộc. Cuối cùng, vào tháng 4, Đạo Luật Trách Nhiệm Thuật Toán - AAA, một cách tự nhiên, đã được giới thiệu cả trong Hạ Viện và Thượng Viện, yêu cầu các công ty công nghệ lớn kiểm tra bằng chứng về định kiến phân biệt trong trí tuệ nhân tạo mà các nền tảng như Facebook và Google sử dụng.
Drama này xảy ra ngay sau loạt kiện cáo khác cho rằng Facebook đã cử hành quảng cáo phân biệt đối xử bằng cách cho phép định hướng quảng cáo nhà ở theo chủng tộc và giới tính, điều mà công ty này về cơ bản đã thừa nhận bằng việc cam kết ngừng tính năng đó.

Vụ kiện HUD và dự luật AAA thực sự là một bước đi vượt xa so với những vụ kiện định kiến thuật toán trước đó, có thể có những hệ quả vô cùng sâu rộng. Để hiểu điều này cần phải đào sâu vào ngữ nghĩa và thực tiễn của quảng cáo trên Facebook.
Bắt đầu từ thuật ngữ đích đến. Như thông thường, đây là một khái niệm rất rộng lớn có thể có nhiều ý nghĩa khác nhau. Trong ngành, đích đến ám chỉ đến dữ liệu mà người quảng cáo sử dụng để phân đoạn đối tượng, có thể là dữ liệu được cung cấp bởi Facebook (ví dụ như người California từ 25 đến 35 tuổi) hoặc là dữ liệu mà người quảng cáo đưa đến Facebook (ví dụ như lịch sử duyệt web và mua sắm của người dùng trên một trang thương mại điện tử). Điểm chính ở đây là dù dữ liệu đến từ Facebook hay từ người quảng cáo, người quảng cáo có thể kiểm soát đối tượng nhận quảng cáo thông qua các công cụ đích đến này.
Tuy nhiên, với sự phức tạp của quá trình mua quảng cáo và đấu giá, đích đến không phải là yếu tố duy nhất xác định ai sẽ nhìn thấy quảng cáo. Trong phân đoạn được chỉ định bởi người quảng cáo, Facebook có thể điều chỉnh loại người dùng cuối cùng xem quảng cáo được nhắm mục tiêu đó.
Điều đó thường được gọi là tối ưu hóa, đó chính là vấn đề trong vụ kiện HUD và AAA. Đặc biệt đối với quảng cáo có phạm vi rộng lớn, ví dụ như toàn bộ thế hệ millennial ở Mỹ, Facebook sẽ thu hẹp thêm tập hợp những người được nhắm mục tiêu dựa trên những thông tin mà nó biết về người dùng và nền tảng của mình. Nếu quảng cáo liên quan đến thời trang, nó sẽ chọn những người đã thể hiện quan tâm đến các thương hiệu thời trang. Nếu việc chạy quảng cáo ban đầu trên một đám đông rộng lớn cho thấy một số phân khúc - ví dụ như những người ở Texas - tương tác với quảng cáo nhiều hơn so với những người khác, thì Facebook sẽ nhanh chóng điều chỉnh để chỉ hiển thị quảng cáo đó cho người dân Texas.
Trong một thế giới của việc nhắm mục tiêu hoàn hảo, nơi người quảng cáo có tuyệt đối kiểm soát trải nghiệm của người dùng và biết tất cả dữ liệu người dùng Facebook, việc tối ưu hóa sẽ không cần thiết. Một người quảng cáo tinh vi chỉ cần huấn luyện các mô hình học máy tương tự như Facebook làm.
Trong một thế giới của việc tối ưu hóa hoàn hảo, nơi Facebook biết thậm chí cả dữ liệu ngoài Facebook như các giao dịch mua sắm, việc nhắm mục tiêu sẽ không cần thiết. Facebook chỉ cần xem xét những thông tin mà người quảng cáo biết về những gì người dùng đã mua hoặc duyệt web và cung cấp trải nghiệm quảng cáo gần như hoàn hảo nhất có thể.
Trên thực tế, tất nhiên, không phải việc nhắm mục tiêu hay tối ưu hóa nào cũng hoàn hảo, vì vậy cả hai đều hoạt động có sự phụ thuộc lẫn nhau: Người quảng cáo không tin tưởng Facebook đủ để giao toàn bộ dữ liệu nhắm mục tiêu, và Facebook không muốn chia sẻ dữ liệu tối ưu hóa của mình (ít nhất là không có ý định) với bên ngoài.
Điều xảy ra trong thực tế kinh doanh quảng cáo là người quảng cáo xuất hiện với một ước đoán tốt nhất về đối tượng mục tiêu, một số nội dung quảng cáo và một mức đặt giá cho hành động người dùng mong muốn như click hoặc cài đặt ứng dụng. Facebook sử dụng nhắm mục tiêu của người quảng cáo để thu hẹp tập hợp tiềm năng, và khi một người dùng như vậy xuất hiện, ước tính họ có khả năng click vào quảng cáo hoặc tải ứng dụng.
Ước tính hỗn hợp đó—nhắm mục tiêu của người quảng cáo và dự đoán tối ưu hóa của Facebook về người dùng quan tâm trong tập hợp nhắm mục tiêu đó—cuối cùng quyết định quảng cáo nào xuất hiện trên luồng Facebook hoặc Instagram của bạn. Nếu nhắm mục tiêu của người quảng cáo cực kỳ chính xác—ví dụ, người dùng duyệt web một sản phẩm cụ thể—thì Facebook chỉ là một người đưa tin chỉ hiển thị quảng cáo đó cho nhóm người (tương đối) nhỏ đó. Nếu nhắm mục tiêu rất rộng, thì Facebook chiếm được quyền kiểm soát lớn về việc ai nhìn thấy cái gì, có thể mở rộng trách nhiệm pháp lý của nó trong trường hợp như Đạo luật Nhà ở Công bằng.
Mục tiêu của quảng cáo tự động—điều kỳ diệu đẩy hàng trăm tỷ đô la mỗi năm và đẩy Google và Facebook lên hơn 1 nghìn tỷ đô la kết hợp—đã là để mục tiêu quảng cáo vào đối tượng tiếp nhận nhất trong một dân số lớn. Trái ngược, sự quy định đề xuất yêu cầu phục vụ quảng cáo cho mọi đối tượng, bất kể hiệu suất. Đó là lực lượng không thể cưỡng lại của quy định va chạm với đối tượng (gần như) không thể di chuyển của ngành công nghiệp nghìn tỷ đô la.

Đây là điểm quyết định: Nhắm mục tiêu, phần của quá trình mà người quảng cáo mang đến, tương đối dễ quy định. Nếu hiển thị quảng cáo nhà ở dựa trên sắc tộc hoặc dân tộc của người dùng là bất hợp pháp, chỉ cần ngăn quảng cáo có nhắm mục tiêu theo sắc tộc hoặc dân tộc cho những quảng cáo đó. Facebook đã tự động phát hiện quảng cáo rượu hoặc chính trị và áp dụng các quy tắc nhắm mục tiêu khác cho chúng. Ví dụ, bạn không thể quảng cáo rượu cho người dùng dưới 21 tuổi (hoặc bất kỳ độ tuổi nào ở các nước như Ả Rập Saudi) trên Facebook, điều mà họ áp dụng nghiêm ngặt.
Nhưng đảm bảo rằng tối ưu hóa—phần thu hẹp mà các thuật toán của Facebook kiểm soát—hiển thị quảng cáo nhà ở và việc làm không thiên vị đối với mọi nhóm về sắc tộc và giới tính là khó hơn nhiều. Ví dụ, thuật toán của Facebook có thể quyết định mục tiêu quảng cáo bất động sản cao cấp tại một mã vùng giàu có, mà một cách nhìn chung nghiêng về người da trắng, do đó vi phạm Đạo luật Nhà ở Công bằng. Facebook có thể không nhận ra thuật toán tối ưu hóa của mình bị thiên vị; cuối cùng thì nó không sử dụng trực tiếp sắc tộc trong thuật toán của mình. Tuy nhiên, nó đã vi phạm luật pháp.
Một cách hơi nghịch lý, việc đảm bảo quảng cáo được phát đạt một cách không thiên vị đồng nghĩa với việc phải quan sát nhiều hơn về sắc tộc và giới tính của người dùng để ngăn chặn thiên vị. Nhóm tối ưu hóa của Facebook có thể đưa ra ước đoán tốt nhất về giới tính, sắc tộc và dân tộc của mỗi người dùng, và đảm bảo rằng việc phân phối quảng cáo trong các danh mục nhất định như nhà ở và việc làm là không thiên vị.
Nhưng điều đó khó hơn là nghe có vẻ.
Chắc chắn, Facebook đã có các danh mục nhắm mục tiêu đa văn hóa—Người Mỹ gốc Latinh, Người Mỹ gốc Phi, Người Mỹ gốc Á—nhưng việc xếp hạng hơn 200 triệu người dùng Mỹ theo một số mức độ quan hệ và đề xuất một số phần trăm hàng đầu như là một đối tượng có thể nhắm mục tiêu là một điều. Việc đưa ra ước đoán tốt hơn so với ngẫu nhiên về việc mỗi người dùng là người thuộc sắc tộc hoặc dân tộc này hay kia, đặc biệt là người dùng mà Facebook có thể không có nhiều dữ liệu.
Để Facebook có thể đưa ra các phân loại đáng tin cậy về giới tính và dân tộc cho tất cả người dùng Mỹ, có lẽ họ sẽ phải tận dụng các nguồn dữ liệu bên ngoài, đặc biệt là đối với người dùng mà họ có ít thông tin. Hãy xem xét chiêu thức nhắm mục tiêu thông minh mà các nhà nghiên cứu Đại học Northeastern đã sử dụng để tạo ra các phân đoạn chủng tộc nhắm mục tiêu của họ. Làm thế nào họ có thể nhắm mục tiêu số lượng người da trắng và người da đen bằng nhau? Họ lấy thông tin công khai từ hồ sơ cử tri của North Carolina, nơi có ghi chép về sắc tộc và giới tính tự báo cáo của cử tri, và sau đó tải lên danh sách cử tri đó lên Facebook để nhắm mục tiêu.
Sản phẩm nhắm mục tiêu đó được gọi là Khán giả Tùy chỉnh, thường được các chiến dịch chính trị sử dụng trong cuộc bầu cử—thông thường để nhắm đến người ủng hộ một đảng cụ thể (mặc dù họ có thể cũng sử dụng nó cho mục đích về sắc tộc). Facebook có thể thực hiện điều tương tự, sử dụng các bản ghi công cộng hoặc tư nhân từ các công ty dữ liệu tiêu dùng để phù hợp với người dùng của họ và đưa ra đoán biết có căn cứ về sắc tộc hoặc giới tính của họ.
Chúng ta thấy thế nào về việc Facebook khai thác các bản ghi công cộng như danh sách cử tri và hồ sơ tài sản để phân loại mọi người Mỹ theo giới tính, sắc tộc và dân tộc? Hoặc thậm chí chỉ là xây dựng các mô hình nội bộ phức tạp hơn, dựa trên hành vi người dùng, để thực hiện việc đánh dấu tương tự? Ừ, tôi cũng không thích. Giải quyết vấn đề thiên vị có thể tạo ra một vấn đề bảo mật lớn hơn nếu công ty đi theo con đường này.
Có khả năng hơn hết những cách rối rắm này, Facebook có thể quyết định hủy bỏ bất kỳ tối ưu hóa nào cho các ngành công nghiệp bị quy định như việc làm và nhà ở, ngoài việc hạn chế nhắm mục tiêu bởi các nhà quảng cáo. Điều đó sẽ ngăn công ty khỏi việc hỗ trợ bất kỳ nhà quảng cáo nào cố gắng vi phạm ý chính của Đạo luật Nhà ở Công bằng.
Nhưng mặt khác, điều này cũng sẽ gây tổn thương cho các doanh nghiệp chính đáng cố gắng tiếp cận các thị trường thiểu số thường được phục vụ kém—ví dụ, chi nhánh tín dụng dành cho người Mỹ gốc Latinh của một ngân hàng quốc gia lớn như Wells Fargo. Hiệu quả, không ai có thể nhắm mục tiêu, và Facebook sẽ không giúp ai tối ưu hóa: Các nỗ lực quảng cáo trực tuyến của những ngành công nghiệp đó sẽ trở về thời kỳ quảng cáo phân tán.
Đáng lưu ý rằng nếu xu hướng quy định này trở nên vững vàng và phổ cập hơn, nó có thể có tác động vượt xa Facebook. Hãy xem xét một nhà quảng cáo tạp chí quyết định công khai các vị trí cấp cao cho nam giới trong Esquire nhưng không trong Marie Claire dành cho phụ nữ. Vì nhà xuất bản tạp chí thường công bố các đối tượng cụ thể của họ trong các bộ slide bán hàng, việc phân đoạn khán giả dễ dàng cho các nhà quảng cáo. Liệu nhà quảng cáo đó có vi phạm tinh thần của luật pháp? Tôi nghĩ là có. Liệu chính phủ có áp dụng luật như họ đã làm với Facebook? Một lần nữa, tôi nghĩ là có.
Nhưng làm thế nào để thực hiện điều đó? Các hợp đồng quảng cáo kiểu cũ như vậy diễn ra qua email, điện thoại và bằng cách trao đổi thủ công, không phải trong một cơ sở dữ liệu tập trung với các số liệu hiệu suất và thống kê giao hàng có thể tìm kiếm được như Facebook.
Trong những ngày đầu của quảng cáo trực tuyến, lý do lớn để thu hút các nhà quảng cáo là mọi thứ trực tuyến có thể theo dõi và nhắm mục tiêu, không giống như thế giới in và TV lỗi thời và tương tự như đó là khả năng theo dõi mọi lượt hiển thị quảng cáo và mọi đôi mắt cũng đồng nghĩa với việc điều chỉnh quảng cáo dễ dàng hơn. Trong tương lai, những người thực hiện việc theo dõi nhiều nhất, tên là Facebook và Google, cũng có thể phải tuân thủ nhiều quy định nhất, cho dù họ có thích hay không. Lần này, dữ liệu của họ sẽ phản tác dụng lại họ.
Nhiều bài viết tuyệt vời từ Mytour
- Một thị trấn hoàn toàn màu trắng đang tiến hành thử nghiệm gây tranh cãi với tiền điện tử
- Tất cả những gì bạn muốn—và cần—biết về người ngoài hành tinh
- Cách các nhà đầu tư VC giai đoạn đầu quyết định đầu tư vào đâu
- 4 công cụ quản lý mật khẩu tốt nhất để bảo vệ cuộc sống số của bạn
- Cách làm một chiếc bumerang mà bạn có thể ném an toàn trong nhà
- 🏃🏽♀️ Muốn có những công cụ tốt nhất để khỏe mạnh? Kiểm tra các lựa chọn của đội ngũ Gear chúng tôi cho bộ theo dõi sức khỏe tốt nhất, đồ dùng chạy bộ (bao gồm giày và tất) và tai nghe tốt nhất.
- 📩 Nhận thêm thông tin nội bộ của chúng tôi với bản tin hàng tuần Backchannel
