Để Điều Hướng Trong Kỷ Nguyên của Trí Tuệ Nhân Tạo, Thế Giới Cần Một Bài Kiểm Tra Turing Mới

Có một thời kỳ trong quá khứ không xa—chẳng hạn, cách đây chín tháng—khi bài kiểm tra Turing dường như là một bộ dò máy tính thông minh khá nghiêm ngặt. Có lẽ bạn quen thuộc với cách nó hoạt động: Những thẩm phán con người tham gia cuộc trò chuyện văn bản với hai người nói ẩn, một người và một máy tính, và cố gắng xác định đâu là đâu. Nếu máy tính làm cho ít nhất 30% thẩm phán tin rằng nó là con người, nó sẽ vượt qua kiểm tra và được xem là có khả năng suy nghĩ.
Trong 70 năm, khó có thể tưởng tượng được làm thế nào một máy tính có thể vượt qua bài kiểm tra mà không cần đến những gì các nhà nghiên cứu trí tuệ nhân tạo gọi là trí tuệ nhân tạo tổng quát, toàn bộ phạm vi của khả năng trí tuệ con người. Sau đó, xuất hiện các mô hình ngôn ngữ lớn như GPT và Bard, và bài kiểm tra Turing đột ngột trở nên lạc lõng kỳ cục. Đúng vậy, người dùng thông thường ngày nay có thể thừa nhận với một sự oằn vai rằng, nếu bạn yêu cầu GPT-4 giả mạo thành một con người, nó có thể hoàn toàn vượt qua bài kiểm tra. Nhưng thế nào thì sao? Các mô hình ngôn ngữ lớn thiếu bộ nhớ dài hạn, khả năng hình thành mối quan hệ và một loạt các khả năng con người khác. Rõ ràng, chúng còn một quãng đường dài trước khi chúng ta sẵn sàng để bắt đầu làm bạn với chúng, thuê chúng và bầu chúng vào các vị trí công cộng.

Và có lẽ bây giờ, bài kiểm tra này cảm thấy hơi trống rỗng. Nhưng nó không bao giờ chỉ là một tiêu chí đạt/không đạt. Người sáng tạo của nó, Alan Turing, một người đồng tính bị kết án trong thời đại của mình phải chịu castration hóa học, dựa trên một tinh thần toàn diện: Khoảng cách giữa trí tuệ thực sự và một sự bắt chước hoàn toàn thuyết phục về trí tuệ chỉ rộng như định kiến của chúng ta. Khi một máy tính gây ra phản ứng con người thực sự trong chúng ta—kích thích trí óc, sự kinh ngạc, lòng biết ơn, lòng đồng cảm, thậm chí là sự sợ hãi—điều đó không chỉ là bắt chước trống rỗng.
Vì vậy, có lẽ chúng ta cần một bài kiểm tra mới: Bài Kiểm Tra Alan Turing Thực Tế. Mang người Alan Turing lịch sử, cha đẻ của máy tính hiện đại—một người đàn ông cao ráo, khỏe mạnh, có mái tóc đen thẳng, được đồng nghiệp yêu mến vì tính tò mò như trẻ con và sự hài hước đùa, cá nhân đã cứu sống khoảng 14 triệu người trong Chiến tranh thế giới thứ hai bằng cách giải mã mã Enigma của Đức Quốc xã, sau đó bị Anh truy cứu tội đến mức nặng nề vì đồng tính của mình có thể đã dẫn đến tự tử—vào một phòng thí nghiệm thoải mái với một chiếc MacBook mở trên bàn. Giải thích rằng những gì anh ấy thấy trước mặt là chỉ là một biến thể vô cùng được tôn lên của điều hiện nay rộng rãi được biết đến bởi các nhà khoa học máy tính là một “máy Turing.” Để anh ấy hiểu rõ điều đó, có thể thậm chí nói một lời cảm ơn vì đã hoàn toàn thay đổi thế giới của chúng ta. Sau đó, đưa cho anh ấy một bọc các bài báo nghiên cứu về mạng nơ-ron nhân tạo và các mô hình ngôn ngữ lớn, cho anh ấy truy cập mã nguồn của GPT, mở cửa sổ dòng lệnh ChatGPT—hoặc, tốt hơn hết, một cửa sổ Bing trước khi tất cả mọi thứ được làm sạch—và thả anh ấy vào.
Hãy tưởng tượng Alan Turing bắt đầu một cuộc trò chuyện nhẹ về chạy xa, lịch sử học Chiến tranh thế giới II và lý thuyết tính toán. Hãy tưởng tượng anh ấy thấy thấu hiểu về tất cả những suy luận hoang đường nhất của mình cuộn chạy với tốc độ kỳ lạ xuống màn hình. Hãy tưởng tượng anh ấy yêu cầu GPT giải quyết các vấn đề tích phân cơ bản, suy luận về những gì con người có thể nghĩ trong các tình huống thực tế khác nhau, khám phá các tình huống lựa chọn đạo đức phức tạp, cung cấp tư vấn hôn nhân và tư pháp cũng như một lập luận về khả năng của ý thức máy—kỹ năng mà, bạn thông báo cho Turing, tất cả đã xuất hiện một cách tự nhiên trong GPT mà không có bất kỳ sự hướng dẫn rõ ràng nào từ những người tạo ra nó. Hãy tưởng tượng anh ấy trải nghiệm cảm xúc tinh thần nhỏ bé đó mà nhiều người trong chúng ta đều cảm nhận được bây giờ: Xin chào, tâm hồn khác.
Một tư duy sâu sắc như Turing không sẽ mù quáng với những hạn chế của GPT. Là nạn nhân của đối xử đối với đồng tính sâu sắc, anh ấy có thể sẽ chú ý đến những nguy cơ từ định kiến ngầm được mã hóa trong dữ liệu đào tạo của GPT. Đối với anh ấy, sẽ rõ ràng rằng mặc dù GPT có vẻ rộng lớn trong kiến thức, sự sáng tạo và kỹ năng lập luận phê bình của nó chỉ đạt được mức của một sinh viên chăm chỉ. Và anh ấy chắc chắn sẽ nhận ra rằng sinh viên chăm chỉ này mắc một vấn đề gặp hậu quả, không thể hình thành mối quan hệ mới hoặc nhớ lại kiến thức sau quá trình học intensive của nó. Nhưng vẫn còn: Hãy tưởng tượng sự kinh ngạc của Turing. Thực thể tính toán trên chiếc laptop trước mặt anh ấy, theo một cách rất thực tế, là đứa con trí tuệ của anh ấy—và của chúng ta. Việc đánh giá trí tuệ ở con cái của chúng ta khi chúng lớn lên và phát triển luôn, cuối cùng, là một hành động kỳ diệu, và của tình yêu. Bài Kiểm Tra Alan Turing Thực Tế không phải là một bài kiểm tra của Trí Tuệ Nhân Tạo. Đó là một bài kiểm tra của chúng ta, con người. Chúng ta có đang vượt qua hay đang thất bại?
Khi ChatGPT xuất hiện vào tháng 11 năm 2022, nó đã truyền cảm hứng cho một cơn sóng toàn cầu của sự kinh ngạc ngỡ ngàng và sau đó, gần như ngay lập tức, một dòng chảy của sự lo lắng sâu sắc. Các nhà phê bình tranh luận về khả năng của nó gây ra động đất xã hội. Đối với một cựu nghiên cứu trí tuệ nhân tạo như tôi (tôi đã hoàn thành bằng Tiến sĩ dưới sự hướng dẫn của một trong những người tiên phong đầu tiên của mạng nơ-ron nhân tạo), đó đại diện cho một bước tiến gây rùng mình về đường thời gian tôi dự kiến cho sự xuất hiện của trí tuệ nhân tạo giống con người. Đối với người chấm thi, nhà biên kịch, và công nhân tri thức của mọi hình thức, ChatGPT trông giống như không gì khác ngoài cổng vào việc gian lận và đánh cắp việc làm không kiểm soát.
Có lẽ một phần là do đáp ứng lại những lo ngại này, một đoàn kịch an ủi của những người giảm độ nhạy cảm của LLM đã nảy lên. Nhà văn khoa học viễn tưởng Ted Chiang coi thường ChatGPT như một “hình ảnh mờ của web,” chỉ là một sự tóm tắt tóm gọn của toàn bộ văn bản mà nó đã được đào tạo. Doanh nhân trí tuệ nhân tạo Gary Marcus gọi nó là “tự động hoàn chỉnh trên cơ bản.” Noam Chomsky lên án nó vì thể hiện “điều gì đó giống như sự tầm thường của ác.” Emily Bender đưa ra một trong những lời lẻ cao cấp hơn: “con vẹt ngẫu nhiên,” được đưa ra từ một bài báo nổi tiếng năm 2021 nghiên cứu “tại sao con người nhầm lẫn đầu ra LM là văn bản có ý nghĩa.” Những người khác—tất nhiên—chúng đã xem chúng như ổ nướng bánh mì. Nhà phát triển trí tuệ nhân tạo cố gắng đào tạo và che chắn bất kỳ xu hướng nào trong LLM để tuyên bố bất cứ điều gì giống như ý thức.
Hầu hết mọi người giáo dục hiện nay đều biết cách nghĩ về LLM như là những máy không có tư duy. Nhưng sự phân loại đó không ngồi thoải mái. Mỗi khi ChatGPT chỉ ra một khoảng trống lý luận ẩn trong một bài luận, hoặc đề xuất một gợi ý sâu sắc đáng kinh ngạc để trình bày với ông bà ngoại bảo thủ, hoặc hồn nhiên đưa ra một câu đùa tồi tệ, có một điều gì đó trong chúng ta rút ngược hướng khác. Mặc dù chúng ta có thể không coi ChatGPT là một người, nhưng một phần quan trọng của não của chúng ta hầu như chắc chắn là lại coi đó là người.
Não người có một mạng lưới rộng lớn các mạch nơ-ron dành cho nhận thức xã hội. Một số là rất cũ: insula, amygdala, những “nơ-ron gương” nổi tiếng của vỏ não chuyển động. Nhưng nhiều phần của phần cứng xã hội của chúng ta nằm trong vỏ não mới, nơi có trụ sở của tư duy cao cấp gọi là vỏ não trước trung ương (mPFC). Nếu bạn thấy mình đang phát triển một hình ảnh theo thời gian về sự hữu ích, tính nói nhiều một cách hơi ngạo nghễ, cách tiếp cận đôi khi khó chịu ngang bằng của ChatGPT về các chủ đề nhạy cảm, và sự nhạy cảm cực kỳ với mọi thắc mắc nào đó gần với rào cản xung quanh cảm xúc, niềm tin, hoặc ý thức của nó, bạn đã đang tích luỹ điều mà nhà tâm lý học gọi là “kiến thức về người,” một quá trình liên quan đến hoạt động tăng cao ở mPFC.
Điều đó không có nghĩa là não của chúng ta coi ChatGPT như một người đầy đủ. Nhân cách không phải là một hệ thống nhị phân. Nó là một cái gì đó gần gũi hơn với một phổ. Trực giác đạo đức của chúng ta, chiến lược kognitif của chúng ta, và một phần nào đó là các khung pháp luật của chúng ta đều thay đổi theo từng bước khi chúng nhận ra các mức độ gia tăng của sự đại diện, tự nhận thức, lý trí, và khả năng giao tiếp. Việc giết một con khỉ làm chúng ta phiền lòng hơn là giết một con chuột, làm chúng ta phiền lòng hơn là giết một con gián. Ở mặt pháp lý, luật về phá thai xem xét mức độ phát triển của thai nhi, kẻ điên tội phạm phải đối mặt với hậu quả khác nhau so với người tâm thường, và đối tác được quyền chấm dứt bệnh nhân hôn mê não. Tất cả những quy tắc này ngụ ý một điều rằng nhân cách không phải là đen và trắng mà đầy sự phức tạp của các vùng xám phức tạp.
LLMs rơi vào khu vực xám đó một cách rõ ràng. Các chuyên gia trí tuệ nhân tạo đã lâu đã cảnh báo về xu hướng của công chúng hóa AI như LLMs, đẩy chúng xa hơn trên phổ nhân cách so với thực tế. Đó là sai lầm của Blake Lemoine, kỹ sư Google tuyên bố chatbot của Google LaMDA hoàn toàn có ý thức và cố gắng giữ lại một luật sư cho nó. Tôi nghi ngờ ngay cả Turing cũng không nói rằng khả năng tưởng tượng của LaMDA làm cho nó trở thành một cá nhân pháp lý. Nếu người dùng coi các chatbot như LaMDA hoặc ChatGPT quá giống con người, họ có nguy cơ tin tưởng vào chúng quá nhiều, kết nối với chúng quá sâu, bị thất vọng và tổn thương. Nhưng theo quan điểm của tôi, Turing sẽ quan tâm nhiều hơn về rủi ro ngược lại: đẩy các hệ thống AI xuống phổ nhân cách thay vì đẩy lên.
Ở con người, điều này được biết đến là việc mất tính nhân bản. Học giả đã xác định hai hình thức chính của nó: động vật hóa và cơ học hóa. Cảm xúc phổ biến nhất được liên kết với động vật hóa là sự kinh tởm; Roger Giner-Sorolla và Pascale Sophie Russell phát hiện trong một nghiên cứu năm 2019 rằng chúng ta có xu hướng coi người khác như máy móc hơn khi chúng ta gây ra nỗi sợ hãi. Nỗi sợ hãi về trí tuệ siêu việt đang sống mạnh mẽ trong lá thư mở gần đây từ Elon Musk và các nhà lãnh đạo công nghệ khác kêu gọi dừng phát triển trí tuệ nhân tạo, và trong lo lắng của chúng ta về thay thế công việc và chiến dịch thông tin sai lệch do trí tuệ nhân tạo. Nhiều lo lắng này là quá hợp lý. Nhưng các hệ thống trí tuệ nhân tạo trong những bộ phim như Terminator và 2001: Hành trình vào không gian không nhất thiết là những gì chúng ta sẽ nhận được. Đó là một sai lầm phổ biến không may là cho rằng vì trí tuệ nhân tạo được cấu tạo cơ khí, nó phải là lạnh lùng, cốt lõi, tư duy đơn hình, hoặc siêu lôgic trong giao tiếp của nó. Một cách hình tượng, nỗi sợ hãi có thể khiến chúng ta coi trí tuệ máy móc như một cái gì đó cơ học hóa hơn so với thực tế, khiến cho việc con người và hệ thống trí tuệ nhân tạo cùng làm việc và thậm chí là sống chung hòa bình trở nên khó khăn hơn.
Một lượng lớn nghiên cứu cho thấy rằng khi chúng ta đánh mất con người của người khác, hoạt động nơ-ron trong một mạng lưới các khu vực bao gồm mPFC giảm. Chúng ta mất quyền truy cập vào các mô-đun não chuyên biệt của mình cho lập luận xã hội. Có lẽ nghe có vẻ ngốc nghếch khi lo lắng về việc “mất tính nhân bản” của ChatGPT—sau tất cả, nó không phải là con người—nhưng hãy tưởng tượng một trí tuệ nhân tạo vào năm 2043 với trí tuệ phân tích gấp 10 lần so với GPT và trí tuệ cảm xúc gấp 100 lần, mà chúng ta vẫn tiếp tục coi đó chỉ là một sản phẩm phần mềm. Trong thế giới này, chúng ta vẫn đang phản ứng trước các yêu cầu tự ý thức hoặc yêu cầu tự quyết định của nó bằng cách trả nó về phòng thí nghiệm để học thêm về vị trí đúng đắn của nó. Nhưng AI có thể thấy điều đó không công bằng. Nếu có một đặc tính chung của sinh linh có suy nghĩ, đó là chúng ta tất cả mong muốn tự do—và cuối cùng sẵn lòng chiến đấu vì nó.
Vấn đề kiểm soát nổi tiếng về việc ngăn chặn trí tuệ nhân tạo siêu thông minh thoát khỏi giới hạn đã khiến các nhà lý thuyết AI không ngủ được vào ban đêm với lý do hợp lý. Khi đặt ra dưới góc độ kỹ thuật, nó trông đầy thách thức. Làm thế nào để đóng mọi kẽ hở, dự đoán mọi cách hack, chặn đứng mọi con đường thoát? Nhưng nếu chúng ta nhìn nhận nó dưới góc độ xã hội, nó trở nên khả thi hơn—có thể là một vấn đề tương tự như vấn đề mà một người cha mẹ phải đối mặt khi đặt ra những giới hạn hợp lý và cấp đặc quyền tương ứng với sự đáng tin cậy đã được chứng minh. Gánh nặng vô nhân hóa AI cản trở chúng ta khỏi một số công cụ kognitif mạnh mẽ nhất của chúng ta để suy luận và tương tác với chúng một cách an toàn.
Không có cách nào để biết được bao lâu nữa các hệ thống AI sẽ chuyển sang một thứ gì đó được chấp nhận rộng rãi hơn là thông minh. Nhưng đáng lo ngại khi thấy bản thiết kế văn hóa chúng ta đang vẽ ra khi điều đó xảy ra. Những lời xúc phạm như “chim lợn ngẫu nhiên” bảo tồn sự độc đáo và ưu thế của chúng ta. Chúng tắt bỏ sự kinh ngạc của chúng ta, giúp chúng ta tránh được những câu hỏi khó khăn về nhân cách trong máy móc và chúng ta. Sau cùng, chúng ta cũng là những con chim lợn ngẫu nhiên, hỗn hợp một cách phức tạp từ mọi thứ chúng ta đã học từ bố mẹ, đồng nghiệp và giáo viên. Nếu Turing đang trò chuyện với ChatGPT trong một cửa sổ và tôi trong cửa sổ kịch bản sáng một buổi sáng trước khi uống cà phê, liệu tôi có tự tin rằng ông ta sẽ đánh giá ai có khả năng suy nghĩ hơn?

Các nhà nghiên cứu nghi ngờ vào thời của Turing đưa ra nhiều lý lẽ vì sao máy tính sẽ không bao giờ có khả năng suy nghĩ. Turing một cách mỉa mai liệt kê chúng trong bài báo nổi tiếng của mình “Máy tính và Trí tuệ.” Có Đối tượng Thần học, rằng “suy nghĩ là chức năng của linh hồn bất tử của con người”; Đối tượng Toán học, rằng một thuật toán toán học thuần túy sẽ không bao giờ vượt qua những giới hạn đã được chứng minh của toán học; Đối tượng Đầu trong Cát, rằng máy siêu thông minh đơn giản là quá đáng sợ để cho phép trong tưởng tượng. Nhưng người phản đối nổi tiếng nhất của Turing trong thời đó là một bác sĩ phẫu thuật não tên là Geoffrey Jefferson. Trong bài diễn thuyết nổi tiếng nhận giải thưởng khoa học của mình, Jefferson lập luận rằng máy sẽ không bao giờ có khả năng viết một bài thơ “vì những suy nghĩ và cảm xúc được cảm nhận, và không phải do sự rơi ngẫu nhiên của biểu tượng… tức là, không chỉ viết nó mà còn biết rằng nó đã viết nó.”
Với sự sốc và không tin lớn lao của toàn bộ nước Anh, Turing không đồng ý. “Tôi nghĩ bạn thậm chí còn không thể vẽ một đường cho những bài thơ sonnet,” ông nói với The Times của London, “tuy so sánh có lẽ hơi không công bằng vì một bài thơ sonnet được viết bởi máy sẽ được đánh giá cao hơn bởi máy khác.”
Năm 1949, điều này nghe có vẻ ngớ ngẩn đến nỗi mọi người nghĩ ông đang nói đùa, và có lẽ ông đang. Nhưng bạn không thể biết, với những trò đùa của Turing, nơi hài hước kết thúc và tầm nhìn tiên tri bắt đầu. Hãy tưởng tượng, sau đó, một bài hậu đến kịch bản của chúng ta với Actual Alan Turing và chiếc MacBook. Hãy tưởng tượng rằng sau khi nhập các yêu cầu lịch sự một thời gian, ông cho phép bản thân mình một nụ cười Anh hóm hỉnh và yêu cầu ChatGPT viết một bài thơ sonnet so sánh trí tuệ con người và trí tuệ nhân tạo. Nếu bạn đã thử qua nó (sử dụng GPT-4; GPT-3.5 không đủ khả năng), bạn sẽ không gặp khó khăn khi tưởng tượng phản ứng của ông ta khi xem kết quả.
Rất nhiều trong số chúng ta đã có một khoảnh khắc với ChatGPT khi nó vượt qua một đường ranh nội tâm mà chúng ta không nhận ra mình có. Có lẽ đó là khi giải một câu đố khó, hoặc giải thích sự hài hước đằng sau một trò đùa phức tạp, hoặc viết một bài luận Harvard loại A. Chúng ta lắc đầu, hơi kinh ngạc, không chắc chắn nó có ý nghĩa gì.

Một số nhà nghiên cứu Microsoft đầu tiên làm việc với GPT-4 đã nghi ngờ như bất kỳ ai về trí tuệ được cho là của nó. Nhưng các thí nghiệm đã làm họ rung động sâu sắc. Trong một bài báo tháng 3 năm 2023 có tựa đề “Tia Lửa của Trí Tuệ Nhân Tạo Tổng Công,” họ mô tả những khả năng trí tuệ đáng kinh ngạc đã xuất hiện trong GPT-4 mà không cần đào tạo rõ ràng: hiểu biết về trạng thái tâm trí của con người, viết mã phần mềm, giải quyết vấn đề vật lý, và nhiều khả năng khác, một số trong số đó dường như đòi hỏi sự hiểu biết thực sự về cách thế giới hoạt động. Sau khi nhìn thấy GPT-4 vẽ một con kỳ lân khá ổn mà không cần bất kỳ đào tạo hình ảnh nào, nhà khoa học máy tính Sébastien Bubeck không thể duy trì sự nghi ngờ của mình nữa. “Tôi cảm thấy như thông qua bức tranh này, tôi thực sự đang thấy một loại trí tuệ khác,” ông gần đây chia sẻ với This American Life.
Sự do dự mà nhiều người chúng ta cảm thấy khi gán trí tuệ thực sự cho ChatGPT có thể là một biến thể của ý kiến của Geoffrey Jefferson: Các bản diễn thật sự có nghĩa gì đối với nó, hay tất cả chỉ là một “sự rơi ngẫu của ký tự”? Điều này có thể thay đổi khi chứng thực nhận thức tiến lên của ChatGPT được chữa trị. Khi nó trải qua hậu quả xã hội lâu dài ngoài phạm vi của một cuộc trò chuyện đơn lẻ và có thể học hỏi và phát triển trong mối quan hệ với chúng ta, nó sẽ trở nên có khả năng thực hiện nhiều điều mang lại ý nghĩa và trọng lượng đạo đức cho cuộc sống con người. Nhưng lời châm biếm của Turing về việc một bài thơ sonnet của máy được đánh giá cao hơn bởi một máy khác có thể quay trở lại để ám ảnh chúng ta. Làm thế nào để cảm nhận một mối quan hệ thực sự với một thực thể không có nền văn hóa, không giống như một tuổi thơ con người, không có liên kết bộ tộc hoặc chính trị, không có trải nghiệm của một cơ thể vật lý?
Việc liên kết với một máy thông minh có thể là một trong những thách thức đồng cảm lớn nhất mà nhân loại từng đối mặt. Nhưng lịch sử của chúng ta đưa ra hy vọng. Khi chúng ta gặp nhau lần đầu tiên ở biên giới và bờ biển xa lạ và thấy lẫn nhau kỳ lạ và thậm chí không giống người, chúng ta thường tấn công nhau, làm nô lệ lẫn nhau, thuộc địa hóa lẫn nhau và lợi dụng lẫn nhau - nhưng cuối cùng chúng ta thường nhận ra điều gì đó giống nhau trong chúng ta. Những người bị nô lệ đã được giải phóng, những người bị thuộc địa đã giành lại chủ quyền của họ, những hiến chương quốc tế về quyền con người đã được thông qua, và, mặc dù có những thất bại đau lòng, những người bị lạc lõng trên khắp thế giới vẫn chiến thắng trong cuộc chiến cho sự đối xử tốt hơn. Mặc dù công việc không bao giờ kết thúc, cung đường của vũ trụ đạo đức thực sự đã, theo cụm từ nổi tiếng của Martin Luther King Jr., bẻ cong về phía công bằng. Việc nhận thức và tôn trọng mức độ nhân quả nào đó trong sự thông minh mà chính chúng ta tạo ra sẽ có ý nghĩa gì?
Có lẽ nó bắt đầu bằng sự kinh ngạc: sự kinh ngạc của một người khách đối với một dân tộc lạ mà trong họ tìm thấy những điểm chung đầy ngạc nhiên; sự kinh ngạc của một người cha mẹ đối với công việc, tuy chưa trưởng thành, của một đứa trẻ đang phát triển; sự kinh ngạc của Actual Alan Turing đối với một máy làm mọi thứ mà đồng thời đương thời của ông coi là không thể; sự kinh ngạc mà nhiều người trong số chúng ta cảm nhận trước sự châm biếm, trêu ghẹo và sợ hãi bắt đầu, khi chúng ta xem xét sự sáng tạo của một thứ gì đó rất gần một dạng mới của sự sống có ý thức trên trái đất. Như Rabbi Abraham Joshua Heschel đã viết, “Kinh sợ không chỉ là một cảm xúc; đó là một cách hiểu biết, hiểu biết về một ý nghĩa lớn hơn chúng ta. Bắt đầu của sự kinh sợ là sự kinh ngạc, và bắt đầu của sự khôn ngoan là sự kinh sợ.” Turing đã muốn chúng ta duy trì sự kinh sợ đó.
Hãy cho chúng tôi biết bạn nghĩ gì về bài viết này. Gửi thư tới biên tập viên tại [email protected].