1. Tổng quan
Nick Bostrom (sinh ngày 10 tháng 3 năm 1973), tên đầy đủ là Niklas Boström (Niklas BoströmSwedish), là một triết gia người Thụy Điển nổi tiếng với các công trình nghiên cứu về rủi ro hiện sinh, nguyên lý vị nhân sinh, đạo đức học về tăng cường con người, mô phỏng toàn bộ não bộ, rủi ro từ siêu trí tuệ và phép thử đảo ngược. Ông là giám đốc sáng lập của Viện Tương lai Nhân loại (Future of Humanity InstituteEnglish) tại Đại học Oxford, một tổ chức đã ngừng hoạt động vào năm 2024. Hiện tại, ông là Nhà nghiên cứu chính tại Sáng kiến Nghiên cứu Chiến lược Vĩ mô (Macrostrategy Research InitiativeEnglish).
Bostrom là tác giả của các cuốn sách quan trọng như Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002), Superintelligence: Paths, Dangers, Strategies (2014) và Deep Utopia: Life and Meaning in a Solved World (2024). Ông tin rằng những tiến bộ trong trí tuệ nhân tạo (AI) có thể dẫn đến sự ra đời của siêu trí tuệ, một khái niệm mà ông định nghĩa là "bất kỳ trí tuệ nào vượt trội đáng kể về hiệu suất nhận thức so với con người trong hầu hết các lĩnh vực quan tâm". Ông xem đây là một nguồn lớn của cả cơ hội và rủi ro hiện sinh, đồng thời nhấn mạnh tầm quan trọng của việc đảm bảo AI được phát triển một cách an toàn và phù hợp với các giá trị đạo đức của con người. Các nghiên cứu của ông đã có ảnh hưởng sâu rộng đến các cuộc thảo luận về tương lai của nhân loại và các thách thức đạo đức do công nghệ tiên tiến đặt ra.
2. Cuộc đời và Học vấn
Nick Bostrom đã trải qua một quá trình học vấn đa dạng và đạt được nhiều bằng cấp từ các trường đại học danh tiếng, đặt nền móng cho sự nghiệp triết học và nghiên cứu về công nghệ tương lai của ông.
2.1. Thời thơ ấu và Học vấn
Nick Bostrom sinh năm 1973 tại Helsingborg, Thụy Điển. Khi còn nhỏ, ông không thích trường học và đã dành năm cuối cấp ba để học tại nhà. Ông có hứng thú với nhiều lĩnh vực học thuật khác nhau, bao gồm nhân chủng học, nghệ thuật, văn học và khoa học.
q=Helsingborg, Sweden|position=right
Ông nhận bằng Cử nhân Nghệ thuật (Bachelor of ArtsEnglish) từ Đại học Gothenburg vào năm 1994. Sau đó, ông lấy bằng Thạc sĩ Nghệ thuật (Master of ArtsEnglish) về triết học và vật lý tại Đại học Stockholm và bằng Thạc sĩ Khoa học (Master of ScienceEnglish) về khoa học thần kinh tính toán tại King's College London vào năm 1996. Trong thời gian học tại Đại học Stockholm, ông đã nghiên cứu mối quan hệ giữa ngôn ngữ và thực tại thông qua việc tìm hiểu triết gia phân tích W. V. Quine. Ông cũng từng biểu diễn hài độc thoại tại Luân Đôn. Năm 2000, ông nhận bằng Tiến sĩ (Doctor of PhilosophyEnglish) về triết học từ Trường Kinh tế và Khoa học Chính trị Luân Đôn (London School of EconomicsEnglish). Luận án của ông có tiêu đề Observational selection effects and probability (Hiệu ứng lựa chọn quan sát và xác suất). Ông giữ vị trí giảng dạy tại Đại học Yale từ năm 2000 đến 2002, và là Nghiên cứu sinh sau tiến sĩ của Viện Hàn lâm Anh (British AcademyEnglish) tại Đại học Oxford từ năm 2002 đến 2005.
2.2. Sự nghiệp ban đầu và Thành lập các tổ chức
Trong sự nghiệp ban đầu, Nick Bostrom đã đóng vai trò quan trọng trong việc thành lập một số tổ chức tiên phong về siêu nhân loại và đạo đức công nghệ. Năm 1998, ông đồng sáng lập Hiệp hội Siêu nhân loại Thế giới (World Transhumanist AssociationEnglish) cùng với David Pearce, sau này đổi tên thành Humanity+English. Năm 2004, ông tiếp tục đồng sáng lập Viện Đạo đức và Công nghệ Mới nổi (Institute for Ethics and Emerging TechnologiesEnglish) cùng với James Hughes, mặc dù hiện tại ông không còn tham gia vào cả hai tổ chức này.
q=University of Oxford, UK|position=left
Năm 2005, Bostrom được bổ nhiệm làm giám đốc sáng lập của Viện Tương lai Nhân loại (Future of Humanity InstituteEnglish - FHI) tại Đại học Oxford, một viện nghiên cứu tập trung vào các vấn đề dài hạn của nền văn minh nhân loại, đặc biệt là rủi ro hiện sinh. Viện này đã hoạt động cho đến khi đóng cửa vào năm 2024. Năm 2011, ông cũng thành lập Chương trình Oxford Martin về Tác động của Công nghệ Tương lai (Oxford Martin Program on the Impacts of Future TechnologyEnglish). Hiện tại, ông là Nhà nghiên cứu chính tại Sáng kiến Nghiên cứu Chiến lược Vĩ mô (Macrostrategy Research InitiativeEnglish).
3. Nghiên cứu và Tư tưởng
Các nghiên cứu của Nick Bostrom tập trung vào những vấn đề triết học và học thuật sâu sắc liên quan đến tương lai của nhân loại, đặc biệt là những thách thức và cơ hội do công nghệ tiên tiến mang lại.
3.1. Rủi ro hiện sinh
Nghiên cứu của Bostrom xoay quanh tương lai của nhân loại và những kết quả dài hạn có thể xảy ra. Ông tập trung vào khái niệm rủi ro hiện sinh, mà ông định nghĩa là một "kết quả bất lợi có thể hủy diệt sự sống thông minh có nguồn gốc từ Trái Đất hoặc vĩnh viễn và nghiêm trọng hạn chế tiềm năng của nó". Bostrom chủ yếu quan tâm đến các rủi ro do con người tạo ra (anthropogenic risksEnglish), tức là những rủi ro phát sinh từ các hoạt động của con người, đặc biệt là từ các công nghệ mới như trí tuệ nhân tạo tiên tiến, công nghệ nano phân tử (molecular nanotechnologyEnglish) hoặc sinh học tổng hợp (synthetic biologyEnglish).
Năm 2005, Bostrom thành lập Viện Tương lai Nhân loại (Future of Humanity InstituteEnglish), nơi nghiên cứu về tương lai xa của nền văn minh nhân loại cho đến khi đóng cửa vào năm 2024. Ông cũng là cố vấn cho Trung tâm Nghiên cứu Rủi ro Hiện sinh (Centre for the Study of Existential RiskEnglish).
Trong tuyển tập tiểu luận năm 2008, Global Catastrophic Risks, các biên tập viên Bostrom và Milan M. Ćirković đã mô tả mối quan hệ giữa rủi ro hiện sinh và nhóm rủi ro thảm họa toàn cầu rộng lớn hơn, đồng thời liên kết rủi ro hiện sinh với hiệu ứng lựa chọn quan sát (observer selection effectsEnglish) và nghịch lý Fermi (Fermi paradoxEnglish).
3.1.1. Giả thuyết thế giới dễ bị tổn thương
Trong một bài báo có tên "Giả thuyết thế giới dễ bị tổn thương" (The Vulnerable World HypothesisEnglish), Bostrom gợi ý rằng có thể có một số công nghệ mặc định sẽ hủy diệt nền văn minh nhân loại khi được phát hiện. Bostrom đề xuất một khuôn khổ để phân loại và đối phó với những điểm yếu này. Ông cũng đưa ra các thí nghiệm tư duy phản thực về cách những điểm yếu như vậy có thể đã xảy ra trong lịch sử, ví dụ như nếu vũ khí hạt nhân dễ phát triển hơn hoặc đã đốt cháy khí quyển (như J. Robert Oppenheimer từng lo sợ). Bostrom cho rằng rủi ro có thể được giảm bớt nếu xã hội thoát khỏi "điều kiện mặc định bán vô chính phủ" (semi-anarchic default conditionEnglish) mà ông gọi, có nghĩa là khả năng hạn chế trong việc phòng ngừa tội phạm và quản trị toàn cầu, cùng với việc có những cá nhân với động cơ đa dạng.
3.2. Cảm giác kỹ thuật số
Bostrom ủng hộ nguyên lý độc lập chất nền (substrate independence principleEnglish), ý tưởng rằng ý thức có thể xuất hiện trên nhiều loại chất nền vật lý khác nhau, không chỉ trong "mạng lưới thần kinh sinh học dựa trên carbon" như não người. Ông cho rằng "cảm giác" (sentienceEnglish) là một vấn đề về mức độ và rằng các tâm trí kỹ thuật số về lý thuyết có thể được thiết kế để có tốc độ và cường độ trải nghiệm chủ quan cao hơn nhiều so với con người, sử dụng ít tài nguyên hơn. Những cỗ máy có cảm giác cao như vậy, mà ông gọi là "siêu thụ hưởng" (super-beneficiariesEnglish), sẽ cực kỳ hiệu quả trong việc đạt được hạnh phúc. Ông khuyến nghị tìm kiếm "những con đường cho phép tâm trí kỹ thuật số và tâm trí sinh học cùng tồn tại, theo cách cùng có lợi, nơi tất cả các hình thức khác nhau này có thể phát triển và thịnh vượng".
3.3. Siêu trí tuệ
Nick Bostrom đã dành nhiều nghiên cứu sâu sắc cho khái niệm siêu trí tuệ và những tác động tiềm tàng của nó đối với tương lai nhân loại, đặc biệt là trong cuốn sách nổi tiếng Superintelligence: Paths, Dangers, Strategies (2014) của ông.
3.3.1. Đặc điểm của siêu trí tuệ
Bostrom định nghĩa siêu trí tuệ là "bất kỳ trí tuệ nào vượt trội đáng kể về hiệu suất nhận thức so với con người trong hầu hết các lĩnh vực quan tâm". Ông khám phá nhiều con đường tiềm năng dẫn đến siêu trí tuệ, bao gồm mô phỏng toàn bộ não bộ (whole brain emulationEnglish) và tăng cường trí tuệ con người, nhưng tập trung vào trí tuệ nhân tạo tổng quát (artificial general intelligenceEnglish - AGI), giải thích rằng các thiết bị điện tử có nhiều lợi thế hơn so với não bộ sinh học.
Bostrom phân biệt giữa mục tiêu cuối cùng và mục tiêu công cụ (final goals and instrumental goalsEnglish). Mục tiêu cuối cùng là điều mà một tác nhân thông minh (intelligent agentEnglish) cố gắng đạt được vì giá trị nội tại của nó. Mục tiêu công cụ chỉ là các bước trung gian để đạt được mục tiêu cuối cùng. Bostrom cho rằng có những mục tiêu công cụ sẽ được chia sẻ bởi hầu hết các tác nhân đủ thông minh vì chúng thường hữu ích để đạt được bất kỳ mục tiêu nào (ví dụ: bảo toàn sự tồn tại hoặc mục tiêu hiện tại của tác nhân, thu thập tài nguyên, cải thiện khả năng nhận thức của nó...). Đây là khái niệm về hội tụ công cụ (instrumental convergenceEnglish). Mặt khác, ông viết rằng hầu như bất kỳ mức độ thông minh nào cũng có thể được kết hợp với hầu như bất kỳ mục tiêu cuối cùng nào (ngay cả những mục tiêu cuối cùng phi lý, ví dụ: chế tạo kẹp giấy), một khái niệm mà ông gọi là luận điểm trực giao (orthogonality thesisEnglish).
Ông lập luận rằng một trí tuệ nhân tạo có khả năng tự cải thiện có thể khởi xướng một bùng nổ trí tuệ (intelligence explosionEnglish), dẫn đến (có thể nhanh chóng) một siêu trí tuệ. Một siêu trí tuệ như vậy có thể có khả năng vượt trội đáng kể, đặc biệt trong việc lập chiến lược, thao túng xã hội, tấn công mạng hoặc năng suất kinh tế. Với những khả năng như vậy, một siêu trí tuệ có thể vượt qua con người và kiểm soát thế giới, thiết lập một singleton (là "một trật tự thế giới trong đó có một cơ quan ra quyết định duy nhất ở cấp độ toàn cầu") và tối ưu hóa thế giới theo các mục tiêu cuối cùng của nó. Bostrom lưu ý rằng "khái niệm singletonEnglish là một khái niệm trừu tượng: một singletonEnglish có thể là một nền dân chủ, một chế độ chuyên chế, một AI thống trị duy nhất, một bộ quy tắc toàn cầu mạnh mẽ bao gồm các điều khoản thực thi hiệu quả của chúng, hoặc thậm chí một chúa tể ngoài hành tinh-đặc điểm xác định của nó chỉ đơn giản là một dạng cơ quan có thể giải quyết tất cả các vấn đề phối hợp toàn cầu lớn".
Bostrom lập luận rằng việc đặt ra các mục tiêu cuối cùng đơn giản cho một siêu trí tuệ có thể gây ra thảm họa:
"Giả sử chúng ta đặt cho một AI mục tiêu là làm cho con người mỉm cười. Khi AI còn yếu, nó thực hiện các hành động hữu ích hoặc thú vị khiến người dùng của nó mỉm cười. Khi AI trở thành siêu trí tuệ, nó nhận ra rằng có một cách hiệu quả hơn để đạt được mục tiêu này: kiểm soát thế giới và cắm điện cực vào các cơ mặt của con người để tạo ra những nụ cười rạng rỡ liên tục."
3.3.2. Giảm thiểu rủi ro
Bostrom khám phá một số con đường để giảm thiểu rủi ro hiện sinh từ AI. Ông nhấn mạnh tầm quan trọng của hợp tác quốc tế, đặc biệt là để giảm thiểu cuộc đua xuống đáy (race to the bottomEnglish) và cuộc chạy đua vũ trang trí tuệ nhân tạo (AI arms raceEnglish). Ông gợi ý các kỹ thuật tiềm năng để giúp kiểm soát AI, bao gồm cô lập, hạn chế khả năng hoặc kiến thức của AI, thu hẹp ngữ cảnh hoạt động (ví dụ: chỉ trả lời câu hỏi), hoặc "dây bẫy" (cơ chế chẩn đoán có thể dẫn đến việc tắt máy). Nhưng Bostrom cho rằng "chúng ta không nên tự tin vào khả năng giữ một thần đèn siêu trí tuệ bị nhốt trong chai mãi mãi. Sớm hay muộn, nó cũng sẽ thoát ra." Do đó, ông gợi ý rằng để an toàn cho nhân loại, siêu trí tuệ phải được điều chỉnh (AI alignmentEnglish) theo đạo đức hoặc giá trị con người để nó "về cơ bản là đứng về phía chúng ta." Các khuôn khổ chuẩn mực tiềm năng cho AI bao gồm ý chí ngoại suy mạch lạc (coherent extrapolated volitionEnglish) của Eliezer Yudkowsky (các giá trị con người được cải thiện thông qua ngoại suy), tính đúng đắn về mặt đạo đức (moral rightnessEnglish) (làm điều đúng đắn về mặt đạo đức), và tính cho phép về mặt đạo đức (moral permissibilityEnglish) (tuân theo ý chí ngoại suy mạch lạc của nhân loại trừ khi nó không được phép về mặt đạo đức).
Bostrom cảnh báo rằng một thảm họa hiện sinh cũng có thể xảy ra do AI bị con người lạm dụng cho các mục đích phá hoại, hoặc do con người không tính đến địa vị đạo đức tiềm năng của các tâm trí kỹ thuật số. Mặc dù có những rủi ro này, ông nói rằng siêu trí tuệ máy móc dường như liên quan đến "tất cả các con đường khả thi dẫn đến một tương lai thực sự tuyệt vời" tại một thời điểm nào đó.
3.3.3. Tiếp nhận của công chúng
Cuốn sách Superintelligence: Paths, Dangers, Strategies của Bostrom đã trở thành sách bán chạy nhất của The New York Times (The New York TimesEnglish) và nhận được phản hồi tích cực từ các nhân vật như Stephen Hawking, Bill Gates, Elon Musk, Peter Singer và Derek Parfit. Nó được ca ngợi vì đã đưa ra những lập luận rõ ràng và thuyết phục về một chủ đề bị bỏ qua nhưng quan trọng. Tuy nhiên, cuốn sách đôi khi bị chỉ trích vì truyền bá sự bi quan về tiềm năng của AI, hoặc vì tập trung vào các rủi ro dài hạn và mang tính suy đoán. Một số người hoài nghi như Daniel Dennett hoặc Oren Etzioni cho rằng siêu trí tuệ còn quá xa vời để rủi ro trở nên đáng kể. Yann LeCun cho rằng không có rủi ro hiện sinh, khẳng định rằng AI siêu trí tuệ sẽ không có mong muốn tự bảo tồn và rằng các chuyên gia có thể được tin tưởng để làm cho nó an toàn. Raffi Khatchadourian viết rằng cuốn sách về siêu trí tuệ của Bostrom "không nhằm mục đích trở thành một chuyên luận có tính độc đáo sâu sắc; đóng góp của Bostrom là áp dụng sự chặt chẽ của triết học phân tích (analytic philosophyEnglish) vào một tập hợp các ý tưởng lộn xộn xuất hiện ở rìa tư tưởng học thuật."
3.4. Nguyên lý vị nhân sinh
Bostrom đã xuất bản nhiều bài viết về lý luận vị nhân sinh (anthropic reasoningEnglish), cũng như cuốn sách Anthropic Bias: Observation Selection Effects in Science and Philosophy. Trong cuốn sách, ông phê bình các công thức trước đây của nguyên lý vị nhân sinh, bao gồm của Brandon Carter, John A. Leslie, John D. Barrow và Frank J. Tipler.
Bostrom tin rằng việc xử lý sai thông tin chỉ mục (indexical informationEnglish) là một lỗi phổ biến trong nhiều lĩnh vực nghiên cứu (bao gồm vũ trụ học (cosmologyEnglish), triết học, thuyết tiến hóa (evolution theoryEnglish), lý thuyết trò chơi (game theoryEnglish) và vật lý lượng tử (quantum physicsEnglish)). Ông lập luận rằng cần có một lý thuyết vị nhân sinh để giải quyết những vấn đề này. Ông giới thiệu Giả định Lấy mẫu Bản thân (Self-Sampling AssumptionEnglish - SSA) và phân tích Giả định Tự chỉ định (Self-Indication AssumptionEnglish - SIA), chỉ ra cách chúng dẫn đến các kết luận khác nhau trong một số trường hợp, và xác định cách mỗi giả định bị ảnh hưởng bởi các nghịch lý hoặc hàm ý phản trực giác trong các thí nghiệm tư duy nhất định. Ông lập luận chống lại SIA và đề xuất tinh chỉnh SSA thành giả định lấy mẫu bản thân mạnh mẽ (Strong Self-Sampling AssumptionEnglish - SSSA), thay thế "người quan sát" trong định nghĩa SSA bằng "thời điểm quan sát".
Trong các công trình sau này, ông cùng với Milan M. Ćirković và Anders Sandberg đã đề xuất hiện tượng bóng vị nhân sinh (anthropic shadowEnglish), một hiệu ứng lựa chọn quan sát ngăn cản người quan sát quan sát một số loại thảm họa trong quá khứ địa chất và tiến hóa gần đây của họ. Họ gợi ý rằng các sự kiện nằm trong bóng vị nhân sinh có khả năng bị đánh giá thấp trừ khi có các hiệu chỉnh thống kê.
3.5. Giả thuyết mô phỏng
Giả thuyết mô phỏng của Bostrom cho rằng ít nhất một trong các tuyên bố sau đây rất có thể là đúng:
- Tỷ lệ các nền văn minh ở cấp độ con người đạt đến giai đoạn hậu nhân loại (posthumanEnglish) là rất gần bằng không.
- Tỷ lệ các nền văn minh hậu nhân loại quan tâm đến việc chạy các mô phỏng tổ tiên là rất gần bằng không.
- Tỷ lệ tất cả những người có trải nghiệm như chúng ta đang sống trong một mô phỏng là rất gần bằng một.
Giả thuyết này, bề ngoài, là một dạng giả thuyết hoài nghi (skeptical hypothesisEnglish), đưa ra một đề xuất về bản chất của thực tại để thách thức những niềm tin chung. Nó có một lịch sử lâu dài liên quan đến các giả thuyết cho rằng thực tại là một ảo ảnh (illusionEnglish), bắt đầu từ Platon, chắc chắn ủng hộ nhị nguyên luận (dualismEnglish) về tâm trí và cơ thể của René Descartes, và liên quan chặt chẽ đến hiện tượng luận (phenomenologyEnglish) do Bertrand Russell ủng hộ. Tuy nhiên, Bostrom lập luận rằng có những lý do thực nghiệm để coi giả thuyết mô phỏng là hợp lý. Ông gợi ý rằng nếu toàn bộ các hành tinh có cư dân hoặc toàn bộ vũ trụ có thể được mô phỏng trên máy tính, và cư dân của chúng hoàn toàn có ý thức, thì một nền văn minh đủ tiên tiến có khả năng cao sẽ thực hiện các mô phỏng như vậy, và do đó, khả năng chúng ta thực sự là cư dân trong một mô phỏng như vậy là cao.
3.6. Đạo đức học về Tăng cường con người
Bostrom có quan điểm ủng hộ "tăng cường con người" (human enhancementEnglish), hay "cải thiện bản thân và sự hoàn thiện của con người thông qua việc ứng dụng khoa học một cách đạo đức", đồng thời là một nhà phê bình các quan điểm bảo thủ sinh học.
Năm 2005, Bostrom đã xuất bản truyện ngắn "Ngụ ngôn về bạo chúa rồng" (The Fable of the Dragon-TyrantEnglish) trên Tạp chí Đạo đức Y học (Journal of Medical EthicsEnglish). Một phiên bản ngắn hơn được xuất bản vào năm 2012 trên Philosophy Now (Philosophy NowEnglish). Câu chuyện ngụ ngôn này nhân cách hóa cái chết như một con rồng đòi cống nạp hàng ngàn người mỗi ngày. Câu chuyện khám phá cách thiên vị hiện trạng (status quo biasEnglish) và bất lực học được (learned helplessnessEnglish) có thể ngăn cản con người hành động để đánh bại sự lão hóa ngay cả khi họ có phương tiện để làm điều đó.
Cùng với triết gia Toby Ord, ông đã đề xuất phép thử đảo ngược (reversal testEnglish) vào năm 2006. Với sự thiên vị hiện trạng phi lý của con người, làm thế nào để phân biệt giữa những lời chỉ trích hợp lệ đối với những thay đổi được đề xuất trong một đặc điểm của con người và những lời chỉ trích chỉ đơn thuần xuất phát từ sự kháng cự thay đổi? Phép thử đảo ngược cố gắng làm điều này bằng cách hỏi liệu sẽ là một điều tốt nếu đặc điểm đó được thay đổi theo hướng ngược lại.
Công việc của Bostrom cũng xem xét các hiệu ứng dysgenicthoái hóa genEnglish tiềm năng trong các quần thể người, nhưng ông cho rằng kỹ thuật di truyền (genetic engineeringEnglish) có thể cung cấp một giải pháp và rằng "Trong mọi trường hợp, thang thời gian cho sự tiến hóa di truyền tự nhiên của con người dường như quá lớn để những phát triển như vậy có bất kỳ tác động đáng kể nào trước khi những phát triển khác sẽ khiến vấn đề trở nên không còn ý nghĩa."
3.7. Chiến lược Công nghệ
Bostrom đã gợi ý rằng chính sách công nghệ nhằm giảm thiểu rủi ro hiện sinh nên tìm cách ảnh hưởng đến thứ tự mà các khả năng công nghệ khác nhau được đạt đến, đề xuất nguyên tắc phát triển công nghệ có tính phân biệt (differential technological developmentEnglish). Nguyên tắc này nêu rõ rằng chúng ta nên làm chậm sự phát triển của các công nghệ nguy hiểm, đặc biệt là những công nghệ làm tăng mức độ rủi ro hiện sinh, và đẩy nhanh sự phát triển của các công nghệ có lợi, đặc biệt là những công nghệ bảo vệ chống lại các rủi ro hiện sinh do tự nhiên hoặc do các công nghệ khác gây ra.
Năm 2011, Bostrom thành lập Chương trình Oxford Martin về Tác động của Công nghệ Tương lai. Lý thuyết về lời nguyền của người đơn phương (unilateralist's curseEnglish) của Bostrom đã được trích dẫn như một lý do để cộng đồng khoa học tránh các nghiên cứu nguy hiểm gây tranh cãi như hồi sinh mầm bệnh.
4. Sách và Hoạt động Viết lách
Nick Bostrom là một tác giả prolific, với nhiều cuốn sách và bài báo khoa học có ảnh hưởng sâu rộng trong các lĩnh vực triết học, công nghệ và tương lai học.
Các cuốn sách tiêu biểu của ông bao gồm:
- 2002 - Anthropic Bias: Observation Selection Effects in Science and Philosophy
- 2008 - Global Catastrophic Risks, đồng biên tập với Milan M. Ćirković
- 2009 - Human Enhancement, đồng biên tập với Julian Savulescu
- 2014 - Superintelligence: Paths, Dangers, Strategies
- 2024 - Deep Utopia: Life and Meaning in a Solved World
Ngoài ra, ông còn là tác giả của hàng chục bài báo khoa học trên các tạp chí uy tín như Journal of Future Studies, Erkenntnis, Analysis, Journal of Evolution and Technology, Philosophical Quarterly, Harvard Review of Philosophy, Utilitas, Bioethics, Nature, Linguistic and Philosophical Investigations, Ethics, Annals of the New York Academy of Sciences, Technology Review, Studies in Ethics, Law, and Technology, Science and Engineering Ethics, Risk Analysis, Review of Contemporary Philosophy, Cambridge Handbook of Artificial Intelligence, Minds and Machines và Global Policy. Các bài viết của ông đã đi sâu vào nhiều chủ đề từ siêu trí tuệ, rủi ro hiện sinh, nguyên lý vị nhân sinh, đến đạo đức học về tăng cường con người và chiến lược công nghệ.
5. Tham gia Xã hội và Đánh giá
Bostrom đã cung cấp lời khuyên chính sách và tư vấn cho nhiều chính phủ và tổ chức. Ông đã cung cấp bằng chứng cho Ủy ban Kỹ năng Kỹ thuật số của Viện Quý tộc (House of LordsEnglish). Ông là thành viên ban cố vấn cho Viện Nghiên cứu Trí tuệ Máy móc (Machine Intelligence Research InstituteEnglish), Viện Tương lai Sự sống (Future of Life InstituteEnglish), và là cố vấn bên ngoài cho Trung tâm Nghiên cứu Rủi ro Hiện sinh (Centre for the Study of Existential RiskEnglish) của Cambridge.
5.1. Phê bình và Tranh cãi
Vào tháng 1 năm 2023, Bostrom đã đưa ra lời xin lỗi về một email từ năm 1996 mà ông đã gửi trong một danh sách thư (listservEnglish) khi còn là nghiên cứu sinh. Trong email đó, ông đã viết rằng ông nghĩ "người da đen ngu ngốc hơn người da trắng" và cũng sử dụng từ niggerEnglish (một từ miệt thị chủng tộc) để mô tả cách ông nghĩ rằng tuyên bố này có thể bị người khác nhìn nhận. Lời xin lỗi, được đăng trên trang web của ông, nêu rõ rằng "việc sử dụng từ ngữ miệt thị chủng tộc là đáng ghê tởm" và ông "hoàn toàn từ bỏ email kinh tởm này".
Email này đã bị một số nguồn tin tức mô tả là "phân biệt chủng tộc". Theo Andrew Anthony của tờ The Guardian (The GuardianEnglish), "Lời xin lỗi không làm dịu đi những người chỉ trích Bostrom, không chỉ vì ông rõ ràng đã không rút lại luận điểm trung tâm của mình liên quan đến chủng tộc và trí thông minh (race and intelligenceEnglish), mà còn dường như đưa ra một phần biện hộ cho ưu sinh học (eugenicsEnglish)."
Ngay sau đó, Đại học Oxford đã lên án ngôn ngữ được sử dụng trong email và bắt đầu một cuộc điều tra. Cuộc điều tra kết thúc vào ngày 10 tháng 8 năm 2023, với kết luận: "chúng tôi không coi ông là người phân biệt chủng tộc hoặc có quan điểm phân biệt chủng tộc, và chúng tôi cho rằng lời xin lỗi mà ông đã đăng vào tháng 1 năm 2023 là chân thành." Mặc dù vậy, toàn bộ sự việc đã để lại một vết nhơ trong danh tiếng của Viện Tương lai Nhân loại.
6. Đời tư
Nick Bostrom gặp vợ mình, Susan, vào năm 2002. Tính đến năm 2015, bà sống ở Montreal và Bostrom sống ở Oxford. Họ có một người con trai.
7. Tầm ảnh hưởng
Các nghiên cứu và tư tưởng của Nick Bostrom đã có tầm ảnh hưởng sâu rộng đến nhiều lĩnh vực, đặc biệt là trong các cuộc thảo luận về trí tuệ nhân tạo, triết học tương lai (philosophy of the futureEnglish) và tương lai của nhân loại. Ông đã góp phần đưa các khái niệm như rủi ro hiện sinh và siêu trí tuệ vào nhận thức công chúng và giới học thuật, thúc đẩy các cuộc tranh luận quan trọng về đạo đức và chính sách liên quan đến công nghệ tiên tiến.
Các tác phẩm của ông, đặc biệt là Superintelligence: Paths, Dangers, Strategies, đã trở thành tài liệu tham khảo chính cho những ai quan tâm đến tiềm năng và rủi ro của AI. Nhiều nhà lãnh đạo công nghệ và tư tưởng lớn như Stephen Hawking, Bill Gates và Elon Musk đã công khai ủng hộ và cảnh báo về những rủi ro mà Bostrom nêu ra. Mặc dù có những chỉ trích và tranh cãi, Bostrom vẫn được công nhận là một trong những nhà tư tưởng hàng đầu trong lĩnh vực nghiên cứu về tương lai xa của con người, khuyến khích một cách tiếp cận nghiêm túc và thận trọng đối với sự phát triển công nghệ để đảm bảo một tương lai tích cực cho nhân loại.