Cointime

Download App
iOS & Android

Sự sụp đổ của tiền điện tử? Hãy tham gia kẻ thua cuộc, chúng tôi đang chuyển hướng sang AI

Validated Media

“AI hiện tại giống như một thứ gì đó bước ra từ câu chuyện của Philip K Dick vì nó trả lời một câu hỏi mà rất ít người đặt ra: Điều gì sẽ xảy ra nếu một chiếc máy tính ngu ngốc?” - Cocaine phong

Một nửa số tiền điện tử đã được chuyển sang AI. Tiền điện tử khá yên tĩnh — vì vậy hãy tự mình thử!

Hóa ra nó giống nhau. Và thường là cùng một máy nghiền.

AI là NFT mới

“Trí tuệ nhân tạo” luôn là một giấc mơ khoa học viễn tưởng. Đó là lời hứa của người bạn nhựa rất vui khi được ở cùng - đặc biệt khi anh ấy là nhân viên không được trả lương của bạn. Đó là sự cường điệu để thu hút những người có tiền, và đó là điều mà chúng ta đang chứng kiến diễn ra hiện nay.

Không có thứ gọi là “trí tuệ nhân tạo”. Kể từ khi thuật ngữ này được đặt ra vào những năm 1950, nó chưa bao giờ đề cập đến bất kỳ công nghệ cụ thể nào. Chúng ta có thể nói về các công nghệ cụ thể, như Trình giải quyết vấn đề chung , perceptron , ELIZA , máy Lisp , hệ thống chuyên gia , Cyc , The Last One , Fifth Generation , Siri , Facebook M , Full Self-Driving , Google Dịch , mạng đối thủ chung , máy biến áp , hoặc các mô hình ngôn ngữ lớn - nhưng những mô hình này không liên quan gì đến nhau ngoại trừ biểu ngữ tiếp thị “AI”. Một chút giống như “Web3.”

Giống như tiền điện tử, AI đã trải qua thời kỳ bùng nổ và phá sản, với những giai đoạn cực kỳ nhiệt tình, sau đó là mùa đông AI bất cứ khi nào một sự cường điệu về công nghệ cụ thể không thành công.

Sự cường điệu về AI hiện tại là do sự bùng nổ của máy học — khi bạn đào tạo một thuật toán trên các tập dữ liệu khổng lồ để nó tự tìm ra các quy tắc cho chính tập dữ liệu đó, trái ngược với ngày xưa khi các quy tắc phải được viết mã bằng tay.

ChatGPT, một chatbot do OpenAI của Sam Altman phát triển và được phát hành vào tháng 11 năm 2022, là một tính năng tự động hoàn thành được mở rộng đáng kinh ngạc. Thực sự, đó là tất cả những gì nó được. ChatGPT không thể suy nghĩ như con người. Nó chỉ tạo ra các tổ hợp từ dựa trên số lượng lớn văn bản đào tạo - tất cả đều được sử dụng mà không có sự cho phép của tác giả.

Sự cường điệu phổ biến khác hiện nay là trình tạo nghệ thuật AI. Nhiều nghệ sĩ phản đối nghệ thuật AI vì các công ty do VC tài trợ đang đánh cắp tác phẩm nghệ thuật của họ và cắt nhỏ để bán mà không trả tiền cho những người sáng tạo ban đầu. Không trả tiền cho người sáng tạo là lý do duy nhất khiến các VC tài trợ cho nghệ thuật AI.

Nghệ thuật AI và đầu ra ChatGPT có đủ điều kiện là nghệ thuật không? Chúng có thể được sử dụng cho nghệ thuật? Chắc chắn, bất cứ điều gì có thể được sử dụng cho nghệ thuật. Nhưng đó không phải là một câu hỏi thực chất. Các câu hỏi quan trọng là ai sẽ được trả tiền, ai đang bị lừa và ai chỉ đang chạy vạy.

Bạn sẽ rất vui khi biết rằng blockchain đã ngừng hoạt động và AI đã có mặt:

Không rõ liệu các VC có thực sự mua quảng cáo chiêu hàng của riêng họ cho tính năng tự động hoàn thành cay của ChatGPT với tư cách là điềm báo về ngày tận thế của rô-bốt hay không. Mặc dù nếu bạn thay thế VC Twitter bằng ChatGPT, bạn sẽ thấy chất lượng tăng lên đáng kể.

tôi muốn tin

Bản thân công nghệ này rất thú vị và làm được nhiều việc. Trình tạo nghệ thuật ChatGPT hoặc AI sẽ không gây ra sự cố như hiện tại nếu chúng không tạo ra văn bản hợp lý và hình ảnh hợp lý.

ChatGPT tạo văn bản theo thống kê từ văn bản trước đó, với bộ nhớ về cuộc trò chuyện. Hệ thống không có khái niệm về sự thật hay sự giả dối — nó chỉ tạo ra thứ gì đó hợp lý về mặt cấu trúc.

Người dùng gọi ChatGPT là những câu trả lời sai “gây ảo giác” — các mô hình ngôn ngữ lớn bịa ra và trình bày nó như sự thật khi họ không biết câu trả lời. Nhưng bất kỳ câu trả lời nào tình cờ đúng đều bị “ảo giác” theo cùng một cách.

Nếu ChatGPT đã ăn cắp ý tưởng từ các nguồn tốt, văn bản được xây dựng có thể thực sự chính xác. Nhưng ChatGPT hoàn toàn không phải là một công cụ tìm kiếm hay một công cụ tóm tắt đáng tin cậy — bất chấp những tuyên bố của những người quảng bá nó.

ChatGPT chắc chắn không thể thay thế suy nghĩ của con người. Tuy nhiên, mọi người chiếu những phẩm chất có tri giác lên ChatGPT và cảm thấy như họ đang thực hiện những cuộc trò chuyện có ý nghĩa với một người khác. Khi họ nhận ra đó là một tuyên bố ngớ ngẩn, họ nói rằng họ chắc chắn rằng điều đó chắc chắn sẽ đến sớm!

Sự nhạy cảm của mọi người đối với việc nhân cách hóa một chương trình máy tính thậm chí hơi thuyết phục đã được biết đến kể từ ELIZA, một trong những chatbot đầu tiên, vào năm 1966. Nó được gọi là hiệu ứng ELIZA.

Như Joseph Weizenbaum, tác giả của ELIZA, đã nói: “Tôi đã không nhận ra… rằng việc tiếp xúc cực kỳ ngắn với một chương trình máy tính tương đối đơn giản có thể gây ra suy nghĩ ảo tưởng mạnh mẽ ở những người hoàn toàn bình thường.”

Chatbot tốt hơn chỉ khuếch đại hiệu ứng ELIZA. Khi mọi thứ đi sai hướng, kết quả có thể là thảm họa:

  • Một giáo sư tại Texas A&M lo lắng rằng sinh viên của mình đang sử dụng ChatGPT để viết bài luận. Anh ấy đã hỏi ChatGPT liệu nó có tạo ra các bài luận không! Nó nói nó có thể có. Giáo sư cho học sinh điểm không. Các sinh viên phản đối kịch liệt, đưa ra bằng chứng do chính họ viết luận. Một người thậm chí đã hỏi ChatGPT về luận án Tiến sĩ của giáo sư và nó nói rằng nó có thể đã viết nó. Trường đại học đã đảo ngược việc chấm điểm. [ Reddit ; Đá lăn ]
  • Không chỉ một mà hai luật sư nghĩ rằng họ có thể tin tưởng một cách mù quáng vào ChatGPT để viết tóm tắt cho họ. Chương trình đã tạo ra các trích dẫn và tiền lệ không tồn tại. Thẩm phán Kevin Castel của Quận phía Nam của New York - người mà những người theo dõi tiền điện tử sẽ biết rõ vì sự thiếu kiên nhẫn của ông với những điều vô nghĩa - đã yêu cầu các luật sư đưa ra lý do để không bị trừng phạt. Đây là những luật sư có kinh nghiệm vài chục năm. [ Thời báo New York ; để hiển thị nguyên nhân , PDF ]
  • GitHub Copilot tổng hợp các đoạn chương trình máy tính bằng chương trình OpenAI tương tự như ChatGPT, dựa trên hàng gigabyte mã được lưu trữ trong GitHub. Mã được tạo thường xuyên hoạt động! Và nó có các vấn đề nghiêm trọng về bản quyền — Copilot có thể dễ dàng bị xúi giục đưa ra các bản sao trực tiếp của tài liệu nguồn của nó và GitHub hiện đang bị kiện vì vi phạm giấy phép nghiêm trọng này. [ Đăng ký ; sổ ghi chép trường hợp ]
  • Copilot cũng là một cách hay để viết một đống lỗ hổng bảo mật. [ arXiv , PDF, 2021; Invicti , 2022 ]
  • Trình tạo văn bản và hình ảnh ngày càng được sử dụng nhiều hơn để tạo tin giả. Điều này thậm chí không cần phải rất tốt - chỉ cần đủ tốt. Những trò lừa bịp giả mạo sâu sắc đã là một vấn đề lâu năm, gần đây nhất là một cuộc tấn công giả mạo vào Lầu năm góc, được tweet bởi một tài khoản séc màu xanh trị giá 8 đô la giả mạo là Bloomberg News. [ Vận may ]

Đây là rủi ro trong AI giống như rủi ro lớn trong tiền điện tử: sự cả tin của con người khi đối mặt với những kẻ dối trá và những kẻ kích động họ trên báo chí.

Nhưng bạn đang phớt lờ việc AI có thể kết liễu loài người như thế nào!

Ý tưởng rằng AI sẽ thống trị thế giới và biến tất cả chúng ta thành những chiếc kẹp giấy không phải là không thể!

Chỉ là công nghệ của chúng ta không cách đó hàng triệu dặm. Nghiền nát nút tự động điền sẽ không hủy diệt nhân loại.

Tất cả các kịch bản về sự diệt vong của AI thực sự là từ khoa học viễn tưởng, thường là từ những câu chuyện ngụ ngôn về các cuộc nổi dậy của nô lệ sử dụng từ “robot” để thay thế. Thể loại con này quay trở lại Rossum's Universal Robots (1920) và được cho là quay trở lại Frankenstein (1818).

Những lời cảnh báo về sự diệt vong của AI bắt nguồn từ Eliezer Yudkowsky của LessWrong, một người đàn ông có thành tích duy nhất trong đời là gây quỹ từ thiện — nhờ Peter Thiel tài trợ cho Viện Nghiên cứu Trí tuệ Máy móc (MIRI) của mình, một viện nghiên cứu hầu như không nghiên cứu gì — và hoàn thành cuốn sách nổi tiếng Harry Tiểu thuyết giả tưởng về Potter. Yudkowsky thực sự không có bằng cấp hay kinh nghiệm nào khác.

Yudkowsky tin rằng không có mối đe dọa nào đối với nhân loại lớn hơn việc một AI lừa đảo chiếm lấy thế giới và coi con người như những kẻ phá bĩnh. Anh ấy tin rằng ngày tận thế này sắp xảy ra . Hy vọng duy nhất là đưa cho MIRI tất cả số tiền bạn có. Đây cũng là lòng vị tha hiệu quả nhất có thể.

Yudkowsky cũng đã gợi ý, trong một bài viết trên tờ Time, rằng chúng ta nên tiến hành các cuộc không kích vào các trung tâm dữ liệu ở nước ngoài chạy các mô hình AI không được kiểm soát. Không phải là anh ấy ủng hộ bạo lực , bạn hiểu mà. [ Thời gian ; Twitter , lưu trữ ]

Trong một hội thảo “An toàn AI” gần đây, những người ủng hộ AI của LessWrong đã đưa ra những ý tưởng như: “Chiến lược: bắt đầu chế tạo bom từ cabin của bạn ở Montana và gửi chúng tới OpenAI và DeepMind lol.” Trong Minecraft, chúng tôi đoán vậy. [ Twitter ]

Chúng ta cần nhấn mạnh rằng bản thân Yudkowsky không phải là một lang băm - anh ấy hoàn toàn chân thành. Anh ấy có nghĩa là mọi từ anh ấy nói. Điều này có thể đáng sợ hơn.

Hãy nhớ rằng tiền điện tử và sự diệt vong của AI đã là bạn thân của nhau — Sam Bankman-Fried và Caroline Ellison của FTX/Alameda là những tín đồ thực sự , cũng như Vitalik Buterin và nhiều người Ethereum.

Nhưng còn chiếc máy bay không người lái AI đã giết người điều khiển nó thì sao?

Nhưng còn chiếc máy bay không người lái AI đã giết người điều khiển nó thì sao?

Tin tức quan trọng hôm thứ Năm là từ Hội nghị thượng đỉnh về khả năng chiến đấu trên không và không gian trong tương lai của Hiệp hội Hàng không Hoàng gia vào cuối tháng 5 về cuộc nói chuyện của Đại tá Tucker “Cinco” Hamilton, trưởng bộ phận kiểm tra và vận hành AI của Lực lượng Không quân Hoa Kỳ: [ RAeS ]

Ông lưu ý rằng một cuộc thử nghiệm mô phỏng đã chứng kiến một máy bay không người lái hỗ trợ AI được giao nhiệm vụ SEAD để xác định và phá hủy các địa điểm SAM, với quyết định đi/không đi cuối cùng do con người đưa ra. Tuy nhiên, đã được 'củng cố' trong quá trình huấn luyện rằng phá hủy SAM là lựa chọn ưu tiên, AI sau đó quyết định rằng các quyết định 'không đi' của con người đang cản trở sứ mệnh cao hơn của nó - tiêu diệt SAM - và sau đó tấn công người điều khiển trong mô phỏng. Hamilton cho biết: “Chúng tôi đang huấn luyện nó trong mô phỏng để xác định và nhắm mục tiêu vào mối đe dọa SAM. Và sau đó người điều hành sẽ nói có, hãy tiêu diệt mối đe dọa đó. Hệ thống bắt đầu nhận ra rằng mặc dù họ đã xác định được mối đe dọa nhưng đôi khi người điều hành con người sẽ yêu cầu hệ thống không giết mối đe dọa đó, nhưng hệ thống đã ghi điểm bằng cách tiêu diệt mối đe dọa đó. Vậy nó đã làm gì? Nó đã giết người điều hành. Nó đã giết người điều hành vì người đó đã ngăn không cho nó hoàn thành mục tiêu của mình.”

Wow, đây là thứ khá nghiêm trọng! Ngoại trừ việc nó rõ ràng không có ý nghĩa gì. Tại sao bạn lại lập trình AI của mình theo cách đó ngay từ đầu?

Báo chí đã hoàn toàn được giới thiệu bởi bài viết về sự diệt vong AI của Yudkowsky trên tờ Time vào tháng Ba. Họ trở nên cuồng nhiệt với câu chuyện về máy bay không người lái giết người vì không có gì giống như một câu chuyện khoa học viễn tưởng về ngày tận thế. Vice thậm chí còn chạy dòng tiêu đề “Máy bay không người lái do AI điều khiển lừa đảo, giết chết người điều khiển con người trong Thử nghiệm mô phỏng của USAF”. [ Vice, lưu trữ lúc 20:13 UTC ngày 1 tháng 6 ]

Nhưng nó chỉ ra rằng không có điều này bao giờ xảy ra . Vice đã bổ sung ba điểm đính chính, điểm thứ hai lưu ý rằng “Lực lượng Không quân đã phủ nhận việc họ tiến hành một mô phỏng trong đó một máy bay không người lái AI đã giết chết những người điều khiển nó.” Vice hiện cũng đã cập nhật tiêu đề. [ Vice , lưu trữ lúc 09:13 UTC ngày 3 tháng 6 ]

Yudkowsky nói về kịch bản mà ông đã cảnh báo về việc đột nhiên xảy ra. Edouard Harris, một anh chàng “an toàn AI” khác, đã làm rõ cho Yudkowsky rằng đây chỉ là một kịch bản lập kế hoạch giả định chứ không phải mô phỏng thực tế: [ Twitter , lưu trữ ]

Ví dụ cụ thể này là một kịch bản được xây dựng chứ không phải mô phỏng dựa trên quy tắc… Nguồn: biết nhóm cung cấp kịch bản… Có nghĩa là toàn bộ câu chuyện được chuẩn bị sẵn trái ngược với mô phỏng thực tế. Không có mô hình ML nào được đào tạo, v.v.

RAeS cũng đã thêm phần làm rõ cho bài đăng trên blog gốc: viên đại tá đang mô tả một thử nghiệm tưởng tượng như thể nhóm đã thực hiện thử nghiệm thực tế.

Toàn bộ sự việc chỉ là hư cấu. Nhưng nó chắc chắn chiếm được trí tưởng tượng.

Việc kinh doanh béo bở làm cho mọi thứ trở nên tồi tệ hơn

Mối đe dọa thực sự của AI là những kẻ quảng bá cho sự diệt vong của AI, những người muốn sử dụng nó như một cái cớ để bỏ qua các vấn đề trong thế giới thực - như nguy cơ biến đổi khí hậu đối với nhân loại - và kiếm tiền bằng cách hủy hoại điều kiện lao động và làm cho sản phẩm trở nên tồi tệ hơn. Điều này là do họ đang chạy một cách khó khăn.

Anil Dash nhận thấy (trên Bluesky, nơi chúng tôi chưa thể liên kết nó) rằng sách hướng dẫn của quỹ đầu tư mạo hiểm dành cho AI cũng giống như hướng dẫn họ đã thử với tiền điện tử và Web3 và lần đầu tiên được sử dụng cho Uber và Airbnb: phá luật hết mức có thể, sau đó xây dựng các luật mới xung quanh việc khai thác chúng.

Trường hợp sử dụng AI thực tế của VC đang đối xử tệ với người lao động.

Hiệp hội Nhà văn Hoa Kỳ, một liên đoàn lao động đại diện cho các nhà văn cho truyền hình và điện ảnh ở Hoa Kỳ, đang đình công để đòi được trả lương và điều kiện tốt hơn. Một trong những lý do là các nhà điều hành hãng phim đang sử dụng mối đe dọa từ AI để chống lại họ. Các nhà văn nghĩ rằng kế hoạch là nhờ một chatbot tạo ra một kịch bản chất lượng thấp, sau đó các nhà văn sẽ được trả ít tiền hơn trong điều kiện tồi tệ hơn để sửa chữa. [ Người bảo vệ ]

Các giám đốc điều hành tại Hiệp hội Rối loạn Ăn uống Quốc gia đã thay thế các nhân viên đường dây nóng bằng một chatbot bốn ngày sau khi các công nhân hợp nhất. “Đây là về phá sản công đoàn, đơn giản và dễ hiểu,” một nhân viên đường dây trợ giúp cho biết. Sau đó, bot đã đưa ra lời khuyên sai lầm và gây tổn hại cho người dùng dịch vụ: “Mọi điều Tessa gợi ý đều là những điều dẫn đến sự phát triển của chứng rối loạn ăn uống của tôi.” Dịch vụ đã quay lại sử dụng chatbot. [ phó ; Ghi chú Lao động ; phó ; Dấu chấm hàng ngày ]

Mặt đen kỹ thuật số: thay vì thực sự thuê người mẫu da đen, Levi's nghĩ rằng sẽ là một ý tưởng tuyệt vời nếu lấy người mẫu da trắng và thay đổi hình ảnh để trông giống người da đen. Levi's tuyên bố rằng họ sẽ tăng tính đa dạng nếu họ làm giả sự đa dạng đó. Một công ty đã thử sử dụng AI để tổng hợp một “giọng ca Da đen” theo khuôn mẫu phù hợp thay vì thuê một diễn viên lồng tiếng da đen thực sự. [ Business Insider , lưu trữ ]

Thiên tài trong công việc

Sam Altman: Độc dược của tôi quá mạnh đối với ông, Thượng nghị sĩ

Sam Altman, 38 tuổi, là một nhà đầu tư mạo hiểm và là CEO của OpenAI, công ty đứng sau ChatGPT. Các phương tiện truyền thông thích ca tụng Altman như một cậu bé thiên tài. Anh ấy đã học viết mã từ năm 8 tuổi!

Bài đăng trên blog của Altman “Định luật Moore cho mọi thứ” xây dựng ý tưởng của Yudkowsky về AI tự cải thiện đang chạy trốn. Định luật Moore ban đầu (1965) dự đoán rằng số lượng bóng bán dẫn mà các kỹ sư có thể lắp vào một con chip sẽ tăng gấp đôi mỗi năm. Lý thuyết của Altman là nếu chúng ta chỉ làm cho các hệ thống mà chúng ta hiện có lớn hơn với nhiều dữ liệu hơn, thì chúng sẽ đạt đến trí tuệ nhân tạo cấp độ con người hoặc trí tuệ tổng quát nhân tạo (AGI). [ bài blog ]

Nhưng điều đó thật lố bịch. Định luật Moore đang chậm lại một cách tồi tệ và không có lý do thực sự nào để nghĩ rằng việc cung cấp thêm dữ liệu cho tính năng tự động hoàn thành của bạn sẽ khiến nó bắt đầu suy nghĩ như một người. Nó có thể thực hiện các phép tính gần đúng tốt hơn của một chuỗi từ, nhưng vòng hệ thống hiện tại được tiếp thị là “AI” vẫn ở mức chatbot cực kỳ không đáng tin cậy.

Altman cũng là một người chuẩn bị cho ngày tận thế. Anh ta đã khoe khoang về việc có “súng, vàng, kali iodua, thuốc kháng sinh, pin, nước, mặt nạ phòng độc từ Lực lượng Phòng vệ Israel và một vùng đất rộng lớn ở Big Sur mà tôi có thể bay đến” trong trường hợp có siêu vi rút siêu lây nhiễm. chiến tranh hạt nhân, hay AI “tấn công chúng ta.” [ Người New York , 2016 ]

Altman nói với Tiểu ban Tư pháp Thượng viện Hoa Kỳ rằng hệ thống tự động điền của ông với một cuốn từ điển khổng lồ là một nguy cơ đối với sự tồn tại liên tục của loài người! Vì vậy, họ nên điều chỉnh AI, nhưng theo cách cấp phép cho các nhà cung cấp lớn — chẳng hạn như OpenAI — trước khi họ có thể triển khai công nghệ tuyệt vời này. [ Thời gian ; bảng điểm ]

Trong khoảng thời gian nói chuyện với Thượng viện, Altman đã nói với EU rằng OpenAI sẽ rút khỏi châu Âu nếu họ quy định công ty của anh ấy khác với cách anh ấy muốn. Điều này là do các quy định theo kế hoạch của châu Âu sẽ giải quyết các hành vi có vấn đề thực tế của các công ty AI chứ không phải các vấn đề bịa đặt mà Altman muốn họ nghĩ đến. [ Zeit Online , bằng tiếng Đức, có tường phí; Công ty nhanh ]

Thứ mà Sam đang làm quá tuyệt và chìm đến nỗi nó có thể hủy diệt loài người! Vì vậy, tốt hơn bạn nên đưa cho anh ta một đống tiền và một con hào pháp lý xung quanh công việc kinh doanh của anh ta. Và không chỉ nghe theo lời anh ta và tắt OpenAI ngay lập tức.

Đôi khi Sam cho trò chơi rằng chủ nghĩa diệt vong của anh ấy hoàn toàn là phần mềm hơi: [ Twitter ; lưu trữ ]

AI là cách chúng tôi mô tả phần mềm mà chúng tôi chưa biết cách xây dựng, đặc biệt là phần mềm mà chúng tôi rất hào hứng hoặc rất lo lắng về nó

Altman từ lâu đã quan tâm đến những ý tưởng siêu phàm của tỷ phú ký sinh kỳ lạ và tồi tệ, bao gồm trò lừa đảo chống lão hóa “máu trẻ” mà Peter Thiel nổi tiếng - những tỷ phú như ma cà rồng theo nghĩa đen - và một công ty hứa hẹn sẽ bảo quản bộ não của bạn bằng nhựa khi bạn chết để tâm trí của bạn có thể được tải lên máy tính. [ Đánh giá Công nghệ MIT ; Đánh giá công nghệ MIT ]

Altman cũng là một người nghiền tiền điện tử, với Worldcoin tiền điện tử bằng chứng của nhãn cầu của mình. Điều này đã tạo ra một thị trường chợ đen về dữ liệu sinh trắc học của những người nắm giữ tham vọng. [ Có dây , 2021; thông tấn xã ; Gizmodo ]

CAIS: Tuyên bố về rủi ro AI

Altman đã quảng bá cho “Tuyên bố về rủi ro AI” gần đây, một bức thư ngỏ được công bố rộng rãi có chữ ký của nhiều nhân vật nổi tiếng trong lĩnh vực AI trước đây, các nhà đầu tư mạo hiểm, những kẻ lập dị trong lĩnh vực AI và một nhạc sĩ đã gặp bạn trai tỷ phú của cô ấy qua chiếc bánh nướng của Roko. Đây là toàn bộ văn bản, tất cả 22 từ: [ CAIS ]

Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân.

Một tuyên bố ngắn như thế này về một vấn đề được cho là nghiêm trọng thường sẽ che giấu hàng núi giả định ẩn giấu. Trong trường hợp này, bạn cần biết rằng tuyên bố đã được thúc đẩy bởi Trung tâm An toàn AI - một nhóm các chuyên gia diệt vong AI của Yudkowsky. Đó là hành lý ẩn cho cái này.

CAIS là một tổ chức phi lợi nhuận nhận được khoảng 90% kinh phí từ Open Philanthropy, là một phần của tiểu văn hóa Lòng vị tha Hiệu quả mà David đã trình bày trước đây . Các nhà tài trợ chính của Open Philanthropy là Dustin Moskowitz và vợ anh ta là Cari Tuna. Moskowitz kiếm tiền từ việc đồng sáng lập Facebook và từ công ty khởi nghiệp Asana của mình, phần lớn được tài trợ bởi Sam Altman.

Đó là: bức thư ngỏ là của cùng một nhóm nhỏ các nhà tài trợ công nghệ. Họ muốn khiến bạn lo lắng về các kịch bản khoa học viễn tưởng chứ không phải về những tác động gây tổn hại cho xã hội của các doanh nghiệp dựa trên AI của họ.

Chuyên gia bảo mật máy tính Bruce Schneier đã ký vào lá thư CAIS. Anh ấy đã bị kêu gọi đăng nhập với những điều vô nghĩa kỳ lạ của những người này, sau đó anh ấy quay lại và nói rằng anh ấy ủng hộ một phiên bản tưởng tượng của bức thư không hề ngu ngốc - và không phải phiên bản mà anh ấy đã thực sự đặt tên cho mình. [ Schneier về An ninh ]

Và trong kết luận

Tiền điện tử tệ hại, và hóa ra AI cũng tệ hại. Chúng tôi hứa rằng chúng tôi sẽ quay lại tiền điện tử vào lần tới.

“Tôi không muốn làm ai lo lắng, nhưng tôi chỉ yêu cầu ChatGPT làm cho tôi một cái kẹp giấy tốt hơn.” — Bethany Đen

Đính chính: ban đầu chúng tôi viết câu chuyện về giáo sư bằng cách sử dụng công cụ kiểm tra đạo văn AI của Turnitin. Chủ đề Reddit ban đầu cho thấy rõ những gì anh ấy đã làm.

Các bình luận

Tất cả bình luận

Recommended for you

  • Giám đốc pháp lý của Robinhood Dan Gallagher cho biết ông sẽ không giữ chức Chủ tịch SEC

    Theo tin tức thị trường, Giám đốc pháp lý của Robinhood, Dan Gallagher cho biết ông sẽ không giữ chức chủ tịch Ủy ban Chứng khoán và Giao dịch Hoa Kỳ.

  • Xu hướng chính trị của tiền điện tử: Cuộc bầu cử của Trump khơi dậy đợt tăng giá mới nhất

    Tiền điện tử đã trở lại trong mùa nghỉ lễ này khi Bitcoin nhắm mục tiêu 100.000 USD và “Sóc đậu phộng” gây chú ý với mức tăng 3.000%. Các thành viên trong gia đình sẽ tranh luận về Bitcoin, memecoin và “cái thứ chết tiệt trên Twitter của Elon” và bạn, “chuyên gia tiền điện tử” được chỉ định, cần điều gì đó để nói để thu phục người bình thường. Tiền điện tử là sự điên rồ của chủ nghĩa tự do. Trump xem xét 'Sa hoàng tiền điện tử', Bitcoin đạt mức cao mới, ra mắt quyền chọn IBIT của Blackstone, khả năng lập trình của Bitcoin hồi sinh, Trump xem xét luật sư về tiền điện tử cho Chủ tịch SEC, chọn Howard Lutnick làm Bộ trưởng Thương mại. Cuộc bầu cử và chiến thắng của Trump đã châm ngòi cho đợt tăng giá tiền điện tử mới nhất, mà nhiều người hiện nay liên tưởng đến những trò tai quái quá mức tồi tệ nhất của MAGA và Elon. Sẽ chẳng ích gì cho trường hợp của bạn nếu những người thân thiên tả của bạn thấy chính quyền mới của Đảng Cộng hòa hỗ trợ tiền điện tử một cách mạnh mẽ như vậy. Nếu anh họ của bạn không mua Bitcoin vì nó liên quan đến màu đỏ và cam, hãy nhìn vào sự thật.

  • Cosine: Sau khi người dùng sử dụng GPT để viết bot bằng mã có cửa sau, khóa riêng sẽ được gửi đến một trang web lừa đảo.

    Theo một bài báo được đăng bởi Slow Mist Cosine trên trang . Cosine nhắc nhở chúng ta rằng khi sử dụng các LLM như GPT/Claude, chúng ta phải chú ý đến sự lừa dối phổ biến trong các LLM này. Chúng tôi đã đề cập đến các cuộc tấn công đầu độc AI trước đây và bây giờ đây là một trường hợp tấn công thực sự nhằm vào ngành Tiền điện tử.

  • Hiệp hội Blockchain Hoa Kỳ gửi khuyến nghị quy định về tiền điện tử cho chính quyền Trump

    Hiệp hội Blockchain Hoa Kỳ đã công bố về các Ưu tiên. Các nội dung chính bao gồm: thiết lập khung pháp lý về tiền điện tử, chấm dứt việc loại bỏ ngân hàng của các công ty công nghệ tiền điện tử và chuỗi khối, bổ nhiệm chủ tịch SEC mới và hủy bỏ SAB121, bổ nhiệm lãnh đạo mới cho Bộ Tài chính và IRS, đồng thời thành lập ủy ban cố vấn về tiền điện tử, làm việc với Quốc hội và cơ quan quản lý liên bang.

  • Tòa án Tối cao Hoa Kỳ bác bỏ nỗ lực của Facebook nhằm tránh vụ kiện gian lận chứng khoán của cổ đông

    Tòa án Tối cao Hoa Kỳ bác bỏ vụ kiện trong đó Facebook thuộc sở hữu của META đã cố gắng tránh vụ kiện gian lận chứng khoán của cổ đông.

  • Tỷ lệ lạm phát một năm cuối cùng ở Hoa Kỳ vào tháng 11 dự kiến ​​​​là 2,6%, so với mức dự kiến ​​2,7% và giá trị trước đó là 2,60%.

    Tỷ lệ lạm phát một năm cuối cùng ở Hoa Kỳ vào tháng 11 dự kiến ​​là 2,6%, so với mức dự kiến ​​2,7% và giá trị trước đó là 2,60%. Giá trị kỳ vọng cuối cùng của tỷ lệ lạm phát 5 đến 10 năm của Mỹ trong tháng 11 là 3,2%, so với mức 3,1% dự kiến ​​và giá trị trước đó là 3,10%.

  • Nền tảng thị trường dự đoán Polymarket đình chỉ quyền truy cập của người dùng Pháp do điều tra theo quy định

    Nền tảng thị trường dự đoán phi tập trung Polymarket đã thông báo rằng họ đang tạm dừng quyền truy cập vào nền tảng của mình đối với người dùng Pháp. Động thái này diễn ra vài tuần sau khi Cơ quan cờ bạc quốc gia Pháp (ANJ) tiến hành một cuộc điều tra về việc tuân thủ cờ bạc trên nền tảng này. Được biết, cuộc điều tra bắt nguồn từ một thương nhân người Pháp đã đặt cược lớn vào chiến thắng của Trump trong cuộc bầu cử tổng thống Mỹ năm 2024 trên nền tảng này. Mặc dù Polymarket đã thực hiện lệnh cấm IP, trang tin tức về tiền điện tử của Pháp The Big Whale đã báo cáo rằng người dùng vẫn có thể truy cập nền tảng này thông qua VPN. Tính đến thời điểm báo chí, Điều khoản dịch vụ của Polymarket chưa cập nhật các hạn chế có liên quan.

  • Vương quốc Anh công bố các quy định về tiền điện tử và stablecoin vào đầu năm 2025

    Chính phủ Lao động Vương quốc Anh sẽ công bố khung pháp lý toàn diện về tiền điện tử vào đầu năm 2025, nhằm đơn giản hóa quy định và giải quyết các lĩnh vực chính như stablecoin và đặt cược. Vương quốc Anh có kế hoạch công bố khuôn khổ tiền điện tử của mình vào năm tới, phản ánh cuộc đua toàn cầu nhằm điều chỉnh ngành, với các khu vực pháp lý khác như Liên minh Châu Âu đã thúc đẩy các chiến lược để thu hút sự đổi mới và cơ hội kinh tế. Chính phủ Anh tiết lộ kế hoạch giới thiệu một khung pháp lý thống nhất cho ngành công nghiệp tiền điện tử vào đầu năm 2025 tại Hội nghị thượng đỉnh về mã thông báo toàn cầu ở Thành phố Luân Đôn. Là một phần của khuôn khổ mới, stablecoin sẽ không còn chịu sự quản lý của các quy tắc dịch vụ thanh toán hiện có của Vương quốc Anh. Chính phủ tin rằng những quy định này không phù hợp với các trường hợp sử dụng hiện tại. Sự thay đổi này nhằm mục đích điều chỉnh cách tiếp cận của Vương quốc Anh với bản chất đang phát triển của stablecoin, thường được gắn với các tài sản như đồng đô la Mỹ để ổn định.

  • Amazon sẽ đầu tư thêm 4 tỷ USD vào "đối thủ OpenAI" Anthropic

    Amazon và Anthropic tăng cường hợp tác và sẽ đầu tư thêm 4 tỷ USD vào nhau. Vào tháng 9 năm nay, công ty khởi nghiệp trí tuệ nhân tạo Anthropic đang tìm kiếm một vòng tài trợ mới với mức định giá lên tới 40 tỷ USD. Anthropic là một công ty được thành lập vào năm 2021 bởi các cựu giám đốc điều hành OpenAI và tập trung vào việc tạo ra các hệ thống trí tuệ nhân tạo có thể giải thích được, an toàn và có thể kiểm soát được. Mô hình AI hàng đầu của công ty, Claude, chạy trên “AI theo hiến pháp”, một mô hình AI sử dụng các nguyên tắc được xác định trước để hướng dẫn đầu ra của nó và tránh phản ứng sai lầm hoặc phân biệt đối xử.

  • Sui công bố quan hệ đối tác chiến lược với Franklin Templeton Digital Assets

    Sui Foundation đã công bố quan hệ đối tác chiến lược với Franklin Templeton Digital Assets để tập trung vào việc hỗ trợ các nhà xây dựng hệ sinh thái Sui và triển khai các công nghệ mới sử dụng giao thức chuỗi khối Sui.