
Silicon Valley đang trải qua khoảnh khắc Frankenstein của mình. Những quái vật ngày nay là những công ty tỷ đô mà chúng ta đã trở nên phụ thuộc vào mọi thứ, từ kết quả tìm kiếm đến chuyến đi ô tô; những người sáng tạo, bị bất ngờ bởi những nền tảng này đã trở thành cái gì. Mark Zuckerberg không hề nhận ra, từ khi ông khởi động Facebook từ phòng ngủ Harvard của mình, rằng nó sẽ phát triển thành một nơi cho quảng cáo thuật toán và bong bóng lọc. YouTube không mong muốn trở thành một bảng tóm tắt của những lý thuyết âm mưu, và Twitter không dự kiến sẽ trở thành nơi cho trolling được tài trợ bởi nhà nước hoặc lời lẽ căm ghét mà sẽ định nghĩa nền tảng của nó.
Nhưng liệu họ có nên biết? Một cuốn sách hướng dẫn mới cho thấy rằng các công ty công nghệ có thể dự đoán được sự thay đổi trong mối quan hệ của con người với công nghệ trong tương lai và họ có thể điều chỉnh sản phẩm của mình để chúng sẽ gây ít hậu quả hơn khi những ngày tới đến.
Cuốn hướng dẫn, mang tên là Ethical OS, ra đời từ một liên minh giữa Viện Tương Lai, một trung tâm nghệ tư duy có trụ sở tại Palo Alto, và Tech and Society Solutions Lab, một sáng kiến mới mẻ từ công ty đầu tư ảnh hưởng Omidyar Network. Cả hai nhóm tập trung vào sự giao điểm giữa công nghệ và xã hội. Tổng cộng, họ tưởng tượng Ethical OS như một cây cầu giữa những nhà nghiên cứu nghiên cứu về ảnh hưởng ngày càng tăng của công nghệ đối với xã hội và những công ty sở hữu quyền kiểm soát.
"Chúng ta đang ở trong thời đại mới với một loạt các hậu quả xã hội không dự kiến đang nảy sinh khi công nghệ trở nên phổ biến hơn, và tuy nhiên, các công ty công nghệ chưa kịp bắt kịp với mối liên kết trực tiếp giữa sản phẩm họ và khả năng đối mặt với điều đó," nói Paula Goldman, giám đốc của Tech and Society Solutions Lab, đơn vị dẫn đầu dự án. "Động lực cho bộ công cụ Ethical OS chính là điều đó: Đây là một công cụ giúp bạn suy nghĩ về những hậu quả này và đảm bảo rằng những gì bạn đang thiết kế là tốt cho thế giới và tốt cho lợi nhuận dài hạn của bạn."
Sốc Tương Lai
Hướng dẫn ba phần—có sẵn để tải xuống tại đây—điều này đề cập đến những hậu quả ảnh hưởng xã hội, từ thông tin sai lệch đến nền kinh tế dopamine. Nó hoạt động như một loại sổ làm việc với danh sách kiểm tra, thử nghiệm tư duy và giải pháp cơ bản cho các nhóm phát triển sản phẩm, nhà thiết kế, nhà sáng lập hoặc nhà đầu tư để đối mặt với ảnh hưởng tương lai của sản phẩm của họ.
Phần đầu tiên mô tả 14 kịch bản gần tương lai, dựa trên những lo lắng đương đại trong thế giới công nghệ có thể đe dọa các công ty trong tương lai. Điều gì sẽ xảy ra, ví dụ, nếu một công ty như Facebook mua lại một ngân hàng lớn và trở thành một nhà cung cấp tín dụng xã hội? Điều gì sẽ xảy ra nếu công nghệ nhận diện khuôn mặt trở thành một công cụ phổ biến, tạo ra một loại ứng dụng mới tích hợp công nghệ vào các hoạt động như hẹn hò và mua sắm? Đội ngũ được khuyến khích thảo luận về mỗi kịch bản, liên kết chúng trở lại các nền tảng hoặc sản phẩm mà họ đang phát triển, và thảo luận về chiến lược chuẩn bị cho những tương lai có thể.
Mỗi kịch bản này xuất phát từ các "tín hiệu" đương đại được xác định bởi Viện Tương Lai—sự xuất hiện của "deep fakes," các công cụ cho "dự đoán công lý," và nỗi lo ngại ngày càng tăng về nghiện công nghệ.
"Chúng tôi thu thập những thứ như vậy kích thích sự tưởng tượng của chúng tôi và sau đó chúng tôi tìm kiếm các mẫu, mối quan hệ. Sau đó, chúng tôi phỏng vấn những người tạo ra những công nghệ này, và chúng tôi bắt đầu phát triển các lý thuyết của riêng mình về nơi mà các rủi ro sẽ xuất hiện," nói Jane McGonigal, giám đốc nghiên cứu trò chơi tại Viện Tương Lai và lãnh đạo nghiên cứu cho Ethical OS. "Những tình huống đạo đức xuất hiện xung quanh các vấn đề xa hơn chỉ là bản phát hành hoặc chu kỳ tăng trưởng tiếp theo, vì vậy chúng tôi cảm thấy việc giúp các công ty phát triển sự tưởng tượng và tầm nhìn để nghĩ đến một thập kỷ nữa sẽ cho phép hành động đạo đức hơn ngày hôm nay."
Giờ Hỏi Đáp
Cũng có một danh sách kiểm tra để giảm thiểu thảm họa trong tám "vùng rủi ro" bao gồm đạo đức máy móc và thiên lệch thuật toán, kiểm soát và thương mại hóa dữ liệu, và quốc gia giám sát. Hướng dẫn khuyến khích đội ngũ tìm các vùng rủi ro liên quan, chạy qua danh sách kiểm tra, và sau đó bắt đầu nghĩ về cách sửa chữa hoặc giảm thiểu những rủi ro đó. Ví dụ: Họ có thể sử dụng công nghệ của bạn như thế nào để lật ngược hoặc tấn công sự thật? Công nghệ có củng cố hoặc khuếch đại thiên lệch không? Công cụ có thể được thiết kế để ủng hộ việc sử dụng thời gian một cách có ý nghĩa không? Bạn có chính sách nào về việc dữ liệu khách hàng sẽ diễn ra như thế nào nếu công ty của bạn bị mua, bán, hoặc đóng cửa không?
"Danh sách kiểm tra có lẽ là cái dễ nhất để tưởng tượng trong một buổi đứng hàng ngày. Chúng tôi thậm chí đã tạo ra một phiên bản để các hội đồng có như một cuộc thảo luận của hội đồng năm phút," nói Raina Kumra, người ở lại làm việc tại Tech and Society Solutions Lab, người đã nảy ra ý tưởng cho bộ công cụ. "Là người sáng lập, khi bạn tham gia các cuộc họp sản phẩm ban đầu của mình, bạn có thể thêm vào quy trình đó danh sách kiểm tra này ở cuối hoặc giữa chừng."
Cuối cùng, hướng dẫn bao gồm một bộ gồm bảy chiến lược bảo vệ tương lai để giúp đội ngũ bắt đầu thực hiện các hành động đạo đức hơn. Các chiến lược này mượn từ các biện pháp bảo vệ đạo đức trong các ngành công nghiệp khác—ví dụ như lời thề Hippocratic cho người làm việc dữ liệu, hoặc một chương trình thưởng bug bounty sẽ thưởng cho những người báo cáo vấn đề đạo đức hoặc nguy cơ gây hại cho xã hội từ một công ty công nghệ.
Chiến Thuật Dẫn Đầu Bởi Con Người
Đến nay, hướng dẫn đã được thử nghiệm bởi gần 20 công ty, các công ty khởi nghiệp và trường học, họ đã sử dụng nó để kích thích cuộc trò chuyện về đạo đức một cách rộng lớn hơn hoặc để hướng dẫn quyết định cụ thể về sản phẩm. Techstars, tổ chức hơn 40 chương trình tăng tốc cho các công ty khởi nghiệp trên khắp đất nước, đã bắt đầu sử dụng khuôn khổ Ethical OS để quyết định đầu tư vào các công ty khởi nghiệp dựa trên khả năng của họ trong việc nghĩ về vấn đề tương lai. Những cuộc trò chuyện như thế, Kumra nói, chưa bao giờ là điều thông thường trong lĩnh vực công nghệ. "Khi tôi đang huy động vốn cho công ty khởi nghiệp của mình, tôi đã nói chuyện với hơn trăm VCs và nhiều, nhiều người sáng lập," cô nói. "Cuộc trò chuyện về đạo đức chưa bao giờ xuất hiện một lần nào."
Vì lý do đó, một hướng dẫn như thế này là "chào đón nhưng đã quá muộn" theo Luke Stark, một nhà nghiên cứu tại Dartmouth nghiên cứu về sự giao thoa giữa hành vi và công nghệ. "[Học giả] đã nghĩ về những vấn đề này từ một thời gian, vì vậy thật sự là thú vị khi thấy một số ý tưởng và lo ngại chung có thể được đưa ra trước mắt những người liên quan đến thiết kế, phát triển và tài trợ."
Stark nói rằng các lĩnh vực quan tâm được xác định trong Ethical OS là "tuyệt đối chính xác." Nhưng vì Ethical OS là một hướng dẫn dành cho những người sáng lập công nghệ và nhà đầu tư, một số giải pháp ưu tiên nhu cầu kinh doanh hơn là những yếu tố xã hội. Các kịch bản nhìn về tương lai giả định rằng deep fakes và công nghệ nhận diện khuôn mặt sẽ tiếp tục phát triển mà không có sự kiểm soát, và rằng ngành công nghiệp công nghệ sẽ tiếp tục tồn tại mà không có sự quản lý chặt chẽ trong thập kỷ tới. Nó đề xuất các giải pháp đạo đức cho các công ty là "đẹp để có"—bao gồm cả những cái có lợi cho lợi nhuận cuối cùng của doanh nghiệp—thay vì "cần phải có."
"Một cách, đạo đức chính nó là một cách tiếp cận rất hẹp," Stark nói. "Nó thích hợp với những diễn giải hẹp về hành vi cá nhân và quyết định cá nhân, thay vì nghĩ về những câu hỏi cấu trúc." Anh ta nhìn nhận hướng dẫn như Ethical OS là bước đầu tuyệt vời trong một loạt các "bước quan trọng ngày càng tăng" trong các công ty công nghệ.
Goldman cũng xem Ethical OS như là một bước đầu để khuyến khích các start-up nghĩ về tác động trong tương lai. Cô gọi hướng dẫn đó là "cốt trợ"—một khuôn khổ để xây dựng những cuộc trò chuyện sâu sắc, lâu dài và nghiêm túc hơn. Các ngành khác, như y học, có các quy trình tương tự để giải quyết đạo đức; trong công nghệ, nhiều công ty sử dụng các hướng dẫn tương tự để giải quyết vấn đề an ninh, quốc tế hóa, tiếp cận hoặc trải nghiệm người dùng (ví dụ như, người ta làm thế nào để điều hướng qua hai màn hình đầu tiên của một ứng dụng trước khi họ đăng ký tài khoản). "Nếu bạn đang trong quá trình phát triển sản phẩm, bạn đã quen với việc phải chạy các kịch bản đó để ra mắt một cái gì đó," Cody Simms, một đối tác tại Techstars nói. "Tôi nghĩ Ethical OS có thể phục vụ như một loại hướng dẫn tương tự."
Việc xem liệu loại bảo vệ tương lai này có thể trở thành tiêu chuẩn trong các nhóm phát triển sản phẩm hay không vẫn còn phải chờ xem. Nhưng Goldman và Kumra cho biết sự quan tâm từ các công ty công nghệ chưa bao giờ cao đến vậy. Silicon Valley chỉ mới bắt đầu sự tính toán của mình và đang tìm kiếm các công cụ để làm tốt hơn.
"Mọi người đều muốn làm tốt hơn, nhưng chúng tôi đã nhận phản hồi khi nói chuyện với các nhà đầu tư và các nhà sáng lập công ty công nghệ rằng họ không biết cách. Họ không biết phải làm gì," Kumra nói. "Không có gì có thể thay đổi nếu bạn không có một bộ công cụ đơn giản để khuyến khích sự thay đổi đó."
Một bộ công cụ đơn giản, từ đó ít nhất có thể bắt đầu cuộc trò chuyện—và làm cho việc sử dụng biện pháp phòng thủ tiêu chuẩn trong tương lai trở nên khó khăn hơn đối với những người sáng lập.
Những điều tuyệt vời khác từ Mytour
- Chơi Monopoly: Những gì Zuck có thể học từ Bill Gates
- Người dùng kiện Juul vì khiến họ nghiện nicotine
- Một chú gấu trắng đùa nhảy và những bức ảnh drone tuyệt vời khác
- Thất vọng, những nhà nghiên cứu: Việc terraforming có thể không hoạt động trên Sao Hỏa
- Không có xe điện năng lượng mặt trời? Bạn vẫn có thể lái xe bằng ánh sáng mặt trời
- Làm thế nào một đám đèn laval bảo vệ chúng ta khỏi hacker
- Nhận thêm nhiều thông tin nội bộ của chúng tôi với bản tin hàng tuần Backchannel của chúng tôi
