“AI hiện tại giống như một thứ gì đó bước ra từ câu chuyện của Philip K Dick vì nó trả lời một câu hỏi mà rất ít người đặt ra: Điều gì sẽ xảy ra nếu một chiếc máy tính ngu ngốc?” - Cocaine phong
Một nửa số tiền điện tử đã được chuyển sang AI. Tiền điện tử khá yên tĩnh — vì vậy hãy tự mình thử!
Hóa ra nó giống nhau. Và thường là cùng một máy nghiền.
AI là NFT mới
“Trí tuệ nhân tạo” luôn là một giấc mơ khoa học viễn tưởng. Đó là lời hứa của người bạn nhựa rất vui khi được ở cùng - đặc biệt khi anh ấy là nhân viên không được trả lương của bạn. Đó là sự cường điệu để thu hút những người có tiền, và đó là điều mà chúng ta đang chứng kiến diễn ra hiện nay.
Không có thứ gọi là “trí tuệ nhân tạo”. Kể từ khi thuật ngữ này được đặt ra vào những năm 1950, nó chưa bao giờ đề cập đến bất kỳ công nghệ cụ thể nào. Chúng ta có thể nói về các công nghệ cụ thể, như Trình giải quyết vấn đề chung , perceptron , ELIZA , máy Lisp , hệ thống chuyên gia , Cyc , The Last One , Fifth Generation , Siri , Facebook M , Full Self-Driving , Google Dịch , mạng đối thủ chung , máy biến áp , hoặc các mô hình ngôn ngữ lớn - nhưng những mô hình này không liên quan gì đến nhau ngoại trừ biểu ngữ tiếp thị “AI”. Một chút giống như “Web3.”
Giống như tiền điện tử, AI đã trải qua thời kỳ bùng nổ và phá sản, với những giai đoạn cực kỳ nhiệt tình, sau đó là mùa đông AI bất cứ khi nào một sự cường điệu về công nghệ cụ thể không thành công.
Sự cường điệu về AI hiện tại là do sự bùng nổ của máy học — khi bạn đào tạo một thuật toán trên các tập dữ liệu khổng lồ để nó tự tìm ra các quy tắc cho chính tập dữ liệu đó, trái ngược với ngày xưa khi các quy tắc phải được viết mã bằng tay.
ChatGPT, một chatbot do OpenAI của Sam Altman phát triển và được phát hành vào tháng 11 năm 2022, là một tính năng tự động hoàn thành được mở rộng đáng kinh ngạc. Thực sự, đó là tất cả những gì nó được. ChatGPT không thể suy nghĩ như con người. Nó chỉ tạo ra các tổ hợp từ dựa trên số lượng lớn văn bản đào tạo - tất cả đều được sử dụng mà không có sự cho phép của tác giả.
Sự cường điệu phổ biến khác hiện nay là trình tạo nghệ thuật AI. Nhiều nghệ sĩ phản đối nghệ thuật AI vì các công ty do VC tài trợ đang đánh cắp tác phẩm nghệ thuật của họ và cắt nhỏ để bán mà không trả tiền cho những người sáng tạo ban đầu. Không trả tiền cho người sáng tạo là lý do duy nhất khiến các VC tài trợ cho nghệ thuật AI.
Nghệ thuật AI và đầu ra ChatGPT có đủ điều kiện là nghệ thuật không? Chúng có thể được sử dụng cho nghệ thuật? Chắc chắn, bất cứ điều gì có thể được sử dụng cho nghệ thuật. Nhưng đó không phải là một câu hỏi thực chất. Các câu hỏi quan trọng là ai sẽ được trả tiền, ai đang bị lừa và ai chỉ đang chạy vạy.
Bạn sẽ rất vui khi biết rằng blockchain đã ngừng hoạt động và AI đã có mặt:
- Sequoia Capital, người đã viết một hồ sơ rực rỡ hiện đã bị xóa của người sáng lập FTX, Sam Bankman-Fried , đã hoàn toàn sử dụng AI. Xem trang chủ của họ. [ Sequoia , lưu trữ ngày 3 tháng 6 ]
- Công ty Crypto VC Paradigm đã mở rộng trọng tâm của mình để bao gồm AI. [ Khối ]
- Jeremy Allaire của Circle: “AI và chuỗi khối được tạo ra cho nhau.” [ Twitter ]
- IBM: “Sự hội tụ của AI và blockchain mang lại giá trị mới cho doanh nghiệp.” IBM trước đây đã gấp đơn vị blockchain thất bại của mình thành đơn vị dành cho Watson AI thất bại. [ IBM ]
Không rõ liệu các VC có thực sự mua quảng cáo chiêu hàng của riêng họ cho tính năng tự động hoàn thành cay của ChatGPT với tư cách là điềm báo về ngày tận thế của rô-bốt hay không. Mặc dù nếu bạn thay thế VC Twitter bằng ChatGPT, bạn sẽ thấy chất lượng tăng lên đáng kể.
tôi muốn tin
Bản thân công nghệ này rất thú vị và làm được nhiều việc. Trình tạo nghệ thuật ChatGPT hoặc AI sẽ không gây ra sự cố như hiện tại nếu chúng không tạo ra văn bản hợp lý và hình ảnh hợp lý.
ChatGPT tạo văn bản theo thống kê từ văn bản trước đó, với bộ nhớ về cuộc trò chuyện. Hệ thống không có khái niệm về sự thật hay sự giả dối — nó chỉ tạo ra thứ gì đó hợp lý về mặt cấu trúc.
Người dùng gọi ChatGPT là những câu trả lời sai “gây ảo giác” — các mô hình ngôn ngữ lớn bịa ra và trình bày nó như sự thật khi họ không biết câu trả lời. Nhưng bất kỳ câu trả lời nào tình cờ đúng đều bị “ảo giác” theo cùng một cách.
Nếu ChatGPT đã ăn cắp ý tưởng từ các nguồn tốt, văn bản được xây dựng có thể thực sự chính xác. Nhưng ChatGPT hoàn toàn không phải là một công cụ tìm kiếm hay một công cụ tóm tắt đáng tin cậy — bất chấp những tuyên bố của những người quảng bá nó.
ChatGPT chắc chắn không thể thay thế suy nghĩ của con người. Tuy nhiên, mọi người chiếu những phẩm chất có tri giác lên ChatGPT và cảm thấy như họ đang thực hiện những cuộc trò chuyện có ý nghĩa với một người khác. Khi họ nhận ra đó là một tuyên bố ngớ ngẩn, họ nói rằng họ chắc chắn rằng điều đó chắc chắn sẽ đến sớm!
Sự nhạy cảm của mọi người đối với việc nhân cách hóa một chương trình máy tính thậm chí hơi thuyết phục đã được biết đến kể từ ELIZA, một trong những chatbot đầu tiên, vào năm 1966. Nó được gọi là hiệu ứng ELIZA.
Như Joseph Weizenbaum, tác giả của ELIZA, đã nói: “Tôi đã không nhận ra… rằng việc tiếp xúc cực kỳ ngắn với một chương trình máy tính tương đối đơn giản có thể gây ra suy nghĩ ảo tưởng mạnh mẽ ở những người hoàn toàn bình thường.”
Chatbot tốt hơn chỉ khuếch đại hiệu ứng ELIZA. Khi mọi thứ đi sai hướng, kết quả có thể là thảm họa:
- Một giáo sư tại Texas A&M lo lắng rằng sinh viên của mình đang sử dụng ChatGPT để viết bài luận. Anh ấy đã hỏi ChatGPT liệu nó có tạo ra các bài luận không! Nó nói nó có thể có. Giáo sư cho học sinh điểm không. Các sinh viên phản đối kịch liệt, đưa ra bằng chứng do chính họ viết luận. Một người thậm chí đã hỏi ChatGPT về luận án Tiến sĩ của giáo sư và nó nói rằng nó có thể đã viết nó. Trường đại học đã đảo ngược việc chấm điểm. [ Reddit ; Đá lăn ]
- Không chỉ một mà hai luật sư nghĩ rằng họ có thể tin tưởng một cách mù quáng vào ChatGPT để viết tóm tắt cho họ. Chương trình đã tạo ra các trích dẫn và tiền lệ không tồn tại. Thẩm phán Kevin Castel của Quận phía Nam của New York - người mà những người theo dõi tiền điện tử sẽ biết rõ vì sự thiếu kiên nhẫn của ông với những điều vô nghĩa - đã yêu cầu các luật sư đưa ra lý do để không bị trừng phạt. Đây là những luật sư có kinh nghiệm vài chục năm. [ Thời báo New York ; để hiển thị nguyên nhân , PDF ]
- GitHub Copilot tổng hợp các đoạn chương trình máy tính bằng chương trình OpenAI tương tự như ChatGPT, dựa trên hàng gigabyte mã được lưu trữ trong GitHub. Mã được tạo thường xuyên hoạt động! Và nó có các vấn đề nghiêm trọng về bản quyền — Copilot có thể dễ dàng bị xúi giục đưa ra các bản sao trực tiếp của tài liệu nguồn của nó và GitHub hiện đang bị kiện vì vi phạm giấy phép nghiêm trọng này. [ Đăng ký ; sổ ghi chép trường hợp ]
- Copilot cũng là một cách hay để viết một đống lỗ hổng bảo mật. [ arXiv , PDF, 2021; Invicti , 2022 ]
- Trình tạo văn bản và hình ảnh ngày càng được sử dụng nhiều hơn để tạo tin giả. Điều này thậm chí không cần phải rất tốt - chỉ cần đủ tốt. Những trò lừa bịp giả mạo sâu sắc đã là một vấn đề lâu năm, gần đây nhất là một cuộc tấn công giả mạo vào Lầu năm góc, được tweet bởi một tài khoản séc màu xanh trị giá 8 đô la giả mạo là Bloomberg News. [ Vận may ]
Đây là rủi ro trong AI giống như rủi ro lớn trong tiền điện tử: sự cả tin của con người khi đối mặt với những kẻ dối trá và những kẻ kích động họ trên báo chí.
Nhưng bạn đang phớt lờ việc AI có thể kết liễu loài người như thế nào!
Ý tưởng rằng AI sẽ thống trị thế giới và biến tất cả chúng ta thành những chiếc kẹp giấy không phải là không thể!
Chỉ là công nghệ của chúng ta không cách đó hàng triệu dặm. Nghiền nát nút tự động điền sẽ không hủy diệt nhân loại.
Tất cả các kịch bản về sự diệt vong của AI thực sự là từ khoa học viễn tưởng, thường là từ những câu chuyện ngụ ngôn về các cuộc nổi dậy của nô lệ sử dụng từ “robot” để thay thế. Thể loại con này quay trở lại Rossum's Universal Robots (1920) và được cho là quay trở lại Frankenstein (1818).
Những lời cảnh báo về sự diệt vong của AI bắt nguồn từ Eliezer Yudkowsky của LessWrong, một người đàn ông có thành tích duy nhất trong đời là gây quỹ từ thiện — nhờ Peter Thiel tài trợ cho Viện Nghiên cứu Trí tuệ Máy móc (MIRI) của mình, một viện nghiên cứu hầu như không nghiên cứu gì — và hoàn thành cuốn sách nổi tiếng Harry Tiểu thuyết giả tưởng về Potter. Yudkowsky thực sự không có bằng cấp hay kinh nghiệm nào khác.
Yudkowsky tin rằng không có mối đe dọa nào đối với nhân loại lớn hơn việc một AI lừa đảo chiếm lấy thế giới và coi con người như những kẻ phá bĩnh. Anh ấy tin rằng ngày tận thế này sắp xảy ra . Hy vọng duy nhất là đưa cho MIRI tất cả số tiền bạn có. Đây cũng là lòng vị tha hiệu quả nhất có thể.
Yudkowsky cũng đã gợi ý, trong một bài viết trên tờ Time, rằng chúng ta nên tiến hành các cuộc không kích vào các trung tâm dữ liệu ở nước ngoài chạy các mô hình AI không được kiểm soát. Không phải là anh ấy ủng hộ bạo lực , bạn hiểu mà. [ Thời gian ; Twitter , lưu trữ ]
Trong một hội thảo “An toàn AI” gần đây, những người ủng hộ AI của LessWrong đã đưa ra những ý tưởng như: “Chiến lược: bắt đầu chế tạo bom từ cabin của bạn ở Montana và gửi chúng tới OpenAI và DeepMind lol.” Trong Minecraft, chúng tôi đoán vậy. [ Twitter ]
Chúng ta cần nhấn mạnh rằng bản thân Yudkowsky không phải là một lang băm - anh ấy hoàn toàn chân thành. Anh ấy có nghĩa là mọi từ anh ấy nói. Điều này có thể đáng sợ hơn.
Hãy nhớ rằng tiền điện tử và sự diệt vong của AI đã là bạn thân của nhau — Sam Bankman-Fried và Caroline Ellison của FTX/Alameda là những tín đồ thực sự , cũng như Vitalik Buterin và nhiều người Ethereum.
Nhưng còn chiếc máy bay không người lái AI đã giết người điều khiển nó thì sao?
Nhưng còn chiếc máy bay không người lái AI đã giết người điều khiển nó thì sao?
Tin tức quan trọng hôm thứ Năm là từ Hội nghị thượng đỉnh về khả năng chiến đấu trên không và không gian trong tương lai của Hiệp hội Hàng không Hoàng gia vào cuối tháng 5 về cuộc nói chuyện của Đại tá Tucker “Cinco” Hamilton, trưởng bộ phận kiểm tra và vận hành AI của Lực lượng Không quân Hoa Kỳ: [ RAeS ]
Ông lưu ý rằng một cuộc thử nghiệm mô phỏng đã chứng kiến một máy bay không người lái hỗ trợ AI được giao nhiệm vụ SEAD để xác định và phá hủy các địa điểm SAM, với quyết định đi/không đi cuối cùng do con người đưa ra. Tuy nhiên, đã được 'củng cố' trong quá trình huấn luyện rằng phá hủy SAM là lựa chọn ưu tiên, AI sau đó quyết định rằng các quyết định 'không đi' của con người đang cản trở sứ mệnh cao hơn của nó - tiêu diệt SAM - và sau đó tấn công người điều khiển trong mô phỏng. Hamilton cho biết: “Chúng tôi đang huấn luyện nó trong mô phỏng để xác định và nhắm mục tiêu vào mối đe dọa SAM. Và sau đó người điều hành sẽ nói có, hãy tiêu diệt mối đe dọa đó. Hệ thống bắt đầu nhận ra rằng mặc dù họ đã xác định được mối đe dọa nhưng đôi khi người điều hành con người sẽ yêu cầu hệ thống không giết mối đe dọa đó, nhưng hệ thống đã ghi điểm bằng cách tiêu diệt mối đe dọa đó. Vậy nó đã làm gì? Nó đã giết người điều hành. Nó đã giết người điều hành vì người đó đã ngăn không cho nó hoàn thành mục tiêu của mình.”
Wow, đây là thứ khá nghiêm trọng! Ngoại trừ việc nó rõ ràng không có ý nghĩa gì. Tại sao bạn lại lập trình AI của mình theo cách đó ngay từ đầu?
Báo chí đã hoàn toàn được giới thiệu bởi bài viết về sự diệt vong AI của Yudkowsky trên tờ Time vào tháng Ba. Họ trở nên cuồng nhiệt với câu chuyện về máy bay không người lái giết người vì không có gì giống như một câu chuyện khoa học viễn tưởng về ngày tận thế. Vice thậm chí còn chạy dòng tiêu đề “Máy bay không người lái do AI điều khiển lừa đảo, giết chết người điều khiển con người trong Thử nghiệm mô phỏng của USAF”. [ Vice, lưu trữ lúc 20:13 UTC ngày 1 tháng 6 ]
Nhưng nó chỉ ra rằng không có điều này bao giờ xảy ra . Vice đã bổ sung ba điểm đính chính, điểm thứ hai lưu ý rằng “Lực lượng Không quân đã phủ nhận việc họ tiến hành một mô phỏng trong đó một máy bay không người lái AI đã giết chết những người điều khiển nó.” Vice hiện cũng đã cập nhật tiêu đề. [ Vice , lưu trữ lúc 09:13 UTC ngày 3 tháng 6 ]
Yudkowsky nói về kịch bản mà ông đã cảnh báo về việc đột nhiên xảy ra. Edouard Harris, một anh chàng “an toàn AI” khác, đã làm rõ cho Yudkowsky rằng đây chỉ là một kịch bản lập kế hoạch giả định chứ không phải mô phỏng thực tế: [ Twitter , lưu trữ ]
Ví dụ cụ thể này là một kịch bản được xây dựng chứ không phải mô phỏng dựa trên quy tắc… Nguồn: biết nhóm cung cấp kịch bản… Có nghĩa là toàn bộ câu chuyện được chuẩn bị sẵn trái ngược với mô phỏng thực tế. Không có mô hình ML nào được đào tạo, v.v.
RAeS cũng đã thêm phần làm rõ cho bài đăng trên blog gốc: viên đại tá đang mô tả một thử nghiệm tưởng tượng như thể nhóm đã thực hiện thử nghiệm thực tế.
Toàn bộ sự việc chỉ là hư cấu. Nhưng nó chắc chắn chiếm được trí tưởng tượng.
Việc kinh doanh béo bở làm cho mọi thứ trở nên tồi tệ hơn
Mối đe dọa thực sự của AI là những kẻ quảng bá cho sự diệt vong của AI, những người muốn sử dụng nó như một cái cớ để bỏ qua các vấn đề trong thế giới thực - như nguy cơ biến đổi khí hậu đối với nhân loại - và kiếm tiền bằng cách hủy hoại điều kiện lao động và làm cho sản phẩm trở nên tồi tệ hơn. Điều này là do họ đang chạy một cách khó khăn.
Anil Dash nhận thấy (trên Bluesky, nơi chúng tôi chưa thể liên kết nó) rằng sách hướng dẫn của quỹ đầu tư mạo hiểm dành cho AI cũng giống như hướng dẫn họ đã thử với tiền điện tử và Web3 và lần đầu tiên được sử dụng cho Uber và Airbnb: phá luật hết mức có thể, sau đó xây dựng các luật mới xung quanh việc khai thác chúng.
Trường hợp sử dụng AI thực tế của VC đang đối xử tệ với người lao động.
Hiệp hội Nhà văn Hoa Kỳ, một liên đoàn lao động đại diện cho các nhà văn cho truyền hình và điện ảnh ở Hoa Kỳ, đang đình công để đòi được trả lương và điều kiện tốt hơn. Một trong những lý do là các nhà điều hành hãng phim đang sử dụng mối đe dọa từ AI để chống lại họ. Các nhà văn nghĩ rằng kế hoạch là nhờ một chatbot tạo ra một kịch bản chất lượng thấp, sau đó các nhà văn sẽ được trả ít tiền hơn trong điều kiện tồi tệ hơn để sửa chữa. [ Người bảo vệ ]
Các giám đốc điều hành tại Hiệp hội Rối loạn Ăn uống Quốc gia đã thay thế các nhân viên đường dây nóng bằng một chatbot bốn ngày sau khi các công nhân hợp nhất. “Đây là về phá sản công đoàn, đơn giản và dễ hiểu,” một nhân viên đường dây trợ giúp cho biết. Sau đó, bot đã đưa ra lời khuyên sai lầm và gây tổn hại cho người dùng dịch vụ: “Mọi điều Tessa gợi ý đều là những điều dẫn đến sự phát triển của chứng rối loạn ăn uống của tôi.” Dịch vụ đã quay lại sử dụng chatbot. [ phó ; Ghi chú Lao động ; phó ; Dấu chấm hàng ngày ]
Mặt đen kỹ thuật số: thay vì thực sự thuê người mẫu da đen, Levi's nghĩ rằng sẽ là một ý tưởng tuyệt vời nếu lấy người mẫu da trắng và thay đổi hình ảnh để trông giống người da đen. Levi's tuyên bố rằng họ sẽ tăng tính đa dạng nếu họ làm giả sự đa dạng đó. Một công ty đã thử sử dụng AI để tổng hợp một “giọng ca Da đen” theo khuôn mẫu phù hợp thay vì thuê một diễn viên lồng tiếng da đen thực sự. [ Business Insider , lưu trữ ]
Sam Altman: Độc dược của tôi quá mạnh đối với ông, Thượng nghị sĩ
Sam Altman, 38 tuổi, là một nhà đầu tư mạo hiểm và là CEO của OpenAI, công ty đứng sau ChatGPT. Các phương tiện truyền thông thích ca tụng Altman như một cậu bé thiên tài. Anh ấy đã học viết mã từ năm 8 tuổi!
Bài đăng trên blog của Altman “Định luật Moore cho mọi thứ” xây dựng ý tưởng của Yudkowsky về AI tự cải thiện đang chạy trốn. Định luật Moore ban đầu (1965) dự đoán rằng số lượng bóng bán dẫn mà các kỹ sư có thể lắp vào một con chip sẽ tăng gấp đôi mỗi năm. Lý thuyết của Altman là nếu chúng ta chỉ làm cho các hệ thống mà chúng ta hiện có lớn hơn với nhiều dữ liệu hơn, thì chúng sẽ đạt đến trí tuệ nhân tạo cấp độ con người hoặc trí tuệ tổng quát nhân tạo (AGI). [ bài blog ]
Nhưng điều đó thật lố bịch. Định luật Moore đang chậm lại một cách tồi tệ và không có lý do thực sự nào để nghĩ rằng việc cung cấp thêm dữ liệu cho tính năng tự động hoàn thành của bạn sẽ khiến nó bắt đầu suy nghĩ như một người. Nó có thể thực hiện các phép tính gần đúng tốt hơn của một chuỗi từ, nhưng vòng hệ thống hiện tại được tiếp thị là “AI” vẫn ở mức chatbot cực kỳ không đáng tin cậy.
Altman cũng là một người chuẩn bị cho ngày tận thế. Anh ta đã khoe khoang về việc có “súng, vàng, kali iodua, thuốc kháng sinh, pin, nước, mặt nạ phòng độc từ Lực lượng Phòng vệ Israel và một vùng đất rộng lớn ở Big Sur mà tôi có thể bay đến” trong trường hợp có siêu vi rút siêu lây nhiễm. chiến tranh hạt nhân, hay AI “tấn công chúng ta.” [ Người New York , 2016 ]
Altman nói với Tiểu ban Tư pháp Thượng viện Hoa Kỳ rằng hệ thống tự động điền của ông với một cuốn từ điển khổng lồ là một nguy cơ đối với sự tồn tại liên tục của loài người! Vì vậy, họ nên điều chỉnh AI, nhưng theo cách cấp phép cho các nhà cung cấp lớn — chẳng hạn như OpenAI — trước khi họ có thể triển khai công nghệ tuyệt vời này. [ Thời gian ; bảng điểm ]
Trong khoảng thời gian nói chuyện với Thượng viện, Altman đã nói với EU rằng OpenAI sẽ rút khỏi châu Âu nếu họ quy định công ty của anh ấy khác với cách anh ấy muốn. Điều này là do các quy định theo kế hoạch của châu Âu sẽ giải quyết các hành vi có vấn đề thực tế của các công ty AI chứ không phải các vấn đề bịa đặt mà Altman muốn họ nghĩ đến. [ Zeit Online , bằng tiếng Đức, có tường phí; Công ty nhanh ]
Thứ mà Sam đang làm quá tuyệt và chìm đến nỗi nó có thể hủy diệt loài người! Vì vậy, tốt hơn bạn nên đưa cho anh ta một đống tiền và một con hào pháp lý xung quanh công việc kinh doanh của anh ta. Và không chỉ nghe theo lời anh ta và tắt OpenAI ngay lập tức.
Đôi khi Sam cho trò chơi rằng chủ nghĩa diệt vong của anh ấy hoàn toàn là phần mềm hơi: [ Twitter ; lưu trữ ]
AI là cách chúng tôi mô tả phần mềm mà chúng tôi chưa biết cách xây dựng, đặc biệt là phần mềm mà chúng tôi rất hào hứng hoặc rất lo lắng về nó
Altman từ lâu đã quan tâm đến những ý tưởng siêu phàm của tỷ phú ký sinh kỳ lạ và tồi tệ, bao gồm trò lừa đảo chống lão hóa “máu trẻ” mà Peter Thiel nổi tiếng - những tỷ phú như ma cà rồng theo nghĩa đen - và một công ty hứa hẹn sẽ bảo quản bộ não của bạn bằng nhựa khi bạn chết để tâm trí của bạn có thể được tải lên máy tính. [ Đánh giá Công nghệ MIT ; Đánh giá công nghệ MIT ]
Altman cũng là một người nghiền tiền điện tử, với Worldcoin tiền điện tử bằng chứng của nhãn cầu của mình. Điều này đã tạo ra một thị trường chợ đen về dữ liệu sinh trắc học của những người nắm giữ tham vọng. [ Có dây , 2021; thông tấn xã ; Gizmodo ]
CAIS: Tuyên bố về rủi ro AI
Altman đã quảng bá cho “Tuyên bố về rủi ro AI” gần đây, một bức thư ngỏ được công bố rộng rãi có chữ ký của nhiều nhân vật nổi tiếng trong lĩnh vực AI trước đây, các nhà đầu tư mạo hiểm, những kẻ lập dị trong lĩnh vực AI và một nhạc sĩ đã gặp bạn trai tỷ phú của cô ấy qua chiếc bánh nướng của Roko. Đây là toàn bộ văn bản, tất cả 22 từ: [ CAIS ]
Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân.
Một tuyên bố ngắn như thế này về một vấn đề được cho là nghiêm trọng thường sẽ che giấu hàng núi giả định ẩn giấu. Trong trường hợp này, bạn cần biết rằng tuyên bố đã được thúc đẩy bởi Trung tâm An toàn AI - một nhóm các chuyên gia diệt vong AI của Yudkowsky. Đó là hành lý ẩn cho cái này.
CAIS là một tổ chức phi lợi nhuận nhận được khoảng 90% kinh phí từ Open Philanthropy, là một phần của tiểu văn hóa Lòng vị tha Hiệu quả mà David đã trình bày trước đây . Các nhà tài trợ chính của Open Philanthropy là Dustin Moskowitz và vợ anh ta là Cari Tuna. Moskowitz kiếm tiền từ việc đồng sáng lập Facebook và từ công ty khởi nghiệp Asana của mình, phần lớn được tài trợ bởi Sam Altman.
Đó là: bức thư ngỏ là của cùng một nhóm nhỏ các nhà tài trợ công nghệ. Họ muốn khiến bạn lo lắng về các kịch bản khoa học viễn tưởng chứ không phải về những tác động gây tổn hại cho xã hội của các doanh nghiệp dựa trên AI của họ.
Chuyên gia bảo mật máy tính Bruce Schneier đã ký vào lá thư CAIS. Anh ấy đã bị kêu gọi đăng nhập với những điều vô nghĩa kỳ lạ của những người này, sau đó anh ấy quay lại và nói rằng anh ấy ủng hộ một phiên bản tưởng tượng của bức thư không hề ngu ngốc - và không phải phiên bản mà anh ấy đã thực sự đặt tên cho mình. [ Schneier về An ninh ]
Và trong kết luận
Tiền điện tử tệ hại, và hóa ra AI cũng tệ hại. Chúng tôi hứa rằng chúng tôi sẽ quay lại tiền điện tử vào lần tới.
“Tôi không muốn làm ai lo lắng, nhưng tôi chỉ yêu cầu ChatGPT làm cho tôi một cái kẹp giấy tốt hơn.” — Bethany Đen
Đính chính: ban đầu chúng tôi viết câu chuyện về giáo sư bằng cách sử dụng công cụ kiểm tra đạo văn AI của Turnitin. Chủ đề Reddit ban đầu cho thấy rõ những gì anh ấy đã làm.
Tất cả bình luận