Silicon Valley đã kiềm chế phong trào lo ngại về AI trong năm 2024
Trong vài năm qua, các chuyên gia công nghệ đã liên tục cảnh báo về nguy cơ các hệ thống AI tiên tiến có thể gây ra thiệt hại thảm khốc cho loài người.
Tuy nhiên, vào năm 2024, những lời cảnh báo này đã bị làm lu mờ bởi một tầm nhìn thực tế và thịnh vượng về AI sáng tạo được ngành công nghệ thúc đẩy – một tầm nhìn cũng có lợi cho túi tiền của họ.
Những người cảnh báo về nguy cơ thảm khốc từ AI thường được gọi là "AI doomers", mặc dù đây không phải là cái tên mà họ ưa thích. Họ lo ngại rằng các hệ thống AI sẽ đưa ra quyết định gây tổn hại cho con người, bị những kẻ cầm quyền lợi dụng để áp bức đại chúng, hoặc góp phần vào sự sụp đổ của xã hội theo cách này hay cách khác.
Vào năm 2023, có vẻ như chúng ta đang bước vào một kỷ nguyên phục hưng về quy định công nghệ. Các mối lo ngại về nguy cơ thảm khốc từ AI và an toàn AI — một chủ đề rộng lớn có thể bao gồm những sai sót, thiếu sót trong việc kiểm duyệt nội dung, và các cách thức khác mà AI có thể gây hại cho xã hội — đã từ một chủ đề nhỏ được thảo luận trong các quán cà phê ở San Francisco trở thành cuộc trò chuyện xuất hiện trên các kênh truyền hình như MSNBC, CNN, và các trang nhất của New York Times.
Tóm lại các cảnh báo đưa ra vào năm 2023: Elon Musk và hơn 1.000 chuyên gia công nghệ và nhà khoa học đã kêu gọi tạm dừng phát triển AI, yêu cầu thế giới chuẩn bị cho những rủi ro sâu rộng mà công nghệ này có thể mang lại. Ngay sau đó, các nhà khoa học hàng đầu tại OpenAI, Google và các phòng thí nghiệm khác đã ký một lá thư công khai nói rằng nguy cơ AI gây tuyệt chủng cho loài người cần được xem xét nghiêm túc hơn. Vài tháng sau, Tổng thống Biden đã ký một sắc lệnh hành pháp về AI với mục tiêu bảo vệ người dân Mỹ khỏi các hệ thống AI. Vào tháng 11 năm 2023, hội đồng quản trị của tổ chức phi lợi nhuận đứng sau nhà phát triển AI hàng đầu thế giới, OpenAI, đã sa thải Sam Altman, với lý do CEO của tổ chức này có tiếng xấu về việc nói dối và không thể tin tưởng trong việc điều hành một công nghệ quan trọng như trí tuệ nhân tạo tổng quát (AGI) — mà trước đây là điểm kết cuối tưởng tượng của AI, tức là các hệ thống có thể thể hiện sự tự nhận thức (mặc dù định nghĩa này giờ đây đang thay đổi để phù hợp với nhu cầu kinh doanh của những người nói về nó).
Một thời điểm, có vẻ như những ước mơ của các doanh nhân Silicon Valley sẽ phải nhường chỗ cho sức khỏe chung của xã hội.
Nhưng với các doanh nhân này, câu chuyện xung quanh nguy cơ thảm khốc từ AI còn đáng lo ngại hơn cả chính các mô hình AI.
Đáp lại, Marc Andreessen, đồng sáng lập a16z, đã công bố bài tiểu luận "Tại sao AI sẽ cứu thế giới" vào tháng 6 năm 2023, một bài viết dài 7.000 từ phá vỡ chương trình nghị sự của những người lo sợ về AI và trình bày một tầm nhìn lạc quan hơn về cách công nghệ này sẽ phát triển.

“Thời đại của Trí tuệ nhân tạo đã đến, và mọi người đang hoảng loạn. May mắn thay, tôi ở đây để mang đến tin vui: AI sẽ không hủy diệt thế giới, và thực tế, nó có thể cứu rỗi thế giới,” Marc Andreessen viết trong bài luận của mình.
Trong phần kết luận, Andreessen đưa ra một giải pháp thuận tiện cho những nỗi sợ về AI: "Đi nhanh và phá vỡ mọi thứ" – cơ bản là cùng một tư tưởng đã định hình mọi công nghệ của thế kỷ 21 (và các vấn đề đi kèm với chúng). Ông lập luận rằng các công ty công nghệ lớn và các startup nên được phép phát triển AI nhanh chóng và mạnh mẽ nhất có thể, với ít hoặc không có rào cản pháp lý. Điều này sẽ đảm bảo AI không rơi vào tay một vài công ty hoặc chính phủ quyền lực, và sẽ giúp Mỹ cạnh tranh hiệu quả với Trung Quốc, ông nói.
Tất nhiên, điều này cũng sẽ giúp các startup AI của a16z kiếm được nhiều tiền hơn — và một số người cho rằng sự lạc quan công nghệ của ông là thiếu tế nhị trong một thời đại đầy chênh lệch thu nhập, đại dịch và khủng hoảng nhà ở.
Dù Andreessen không luôn đồng ý với Big Tech, kiếm tiền là một lĩnh vực mà toàn bộ ngành công nghiệp có thể đồng thuận. Các người sáng lập a16z đã viết một lá thư cùng với CEO Microsoft, Satya Nadella, yêu cầu chính phủ không nên điều tiết ngành công nghiệp AI.
Trong khi đó, bất chấp những lời cảnh báo vội vàng vào năm 2023, Elon Musk và các nhà công nghệ khác không hề giảm tốc độ để tập trung vào an toàn trong năm 2024 – hoàn toàn ngược lại: Đầu tư vào AI năm 2024 đã vượt qua mọi con số trước đây. Sam Altman nhanh chóng quay lại vị trí giám đốc điều hành OpenAI, và một nhóm các nhà nghiên cứu an toàn đã rời đi trong năm 2024 trong khi cảnh báo về sự suy yếu của văn hóa an toàn tại đây.
Lệnh hành pháp về AI của Tổng thống Biden, tập trung vào an toàn, phần lớn đã mất đi sự ủng hộ trong năm nay tại Washington, D.C. – Tổng thống đắc cử Donald Trump đã công bố kế hoạch hủy bỏ lệnh này, lập luận rằng nó cản trở sự đổi mới trong AI. Andreessen cho biết ông đã tư vấn cho Trump về AI và công nghệ trong những tháng gần đây, và một nhà đầu tư lâu năm của a16z, Sriram Krishnan, hiện là cố vấn cao cấp chính thức của Trump về AI.
Các đảng viên Cộng hòa tại Washington hiện có một số ưu tiên liên quan đến AI, vượt trội hơn so với phong trào chống lại nguy cơ AI tận thế, theo Dean Ball, một nghiên cứu viên chuyên về AI tại Trung tâm Mercatus của Đại học George Mason. Các ưu tiên này bao gồm xây dựng các trung tâm dữ liệu để cung cấp năng lượng cho AI, sử dụng AI trong chính phủ và quân đội, cạnh tranh với Trung Quốc, hạn chế kiểm duyệt nội dung từ các công ty công nghệ theo xu hướng cánh tả, và bảo vệ trẻ em khỏi các chatbot AI.
“Tôi nghĩ phong trào chống lại nguy cơ AI tận thế đã mất sức mạnh ở cấp độ liên bang. Ở cấp bang và địa phương, họ cũng đã thất bại trong cuộc chiến lớn duy nhất mà họ có,” Ball nói trong một cuộc phỏng vấn với TechCrunch. Tất nhiên, ông đang nói đến dự luật an toàn AI SB 1047 gây tranh cãi của California.
Một phần lý do phong trào chống lại nguy cơ AI tận thế không còn được ưa chuộng trong năm 2024 là vì, khi các mô hình AI trở nên phổ biến hơn, chúng ta cũng thấy được sự thiếu thông minh của chúng. Thật khó để tưởng tượng Google Gemini sẽ trở thành Skynet khi nó vừa chỉ bạn cách đổ keo lên pizza.
Nhưng đồng thời, năm 2024 cũng là năm mà nhiều sản phẩm AI dường như đã mang những khái niệm từ khoa học viễn tưởng vào đời thực. Lần đầu tiên trong năm nay, OpenAI cho thấy chúng ta có thể trò chuyện với điện thoại mà không phải qua chúng, và Meta đã ra mắt kính thông minh với khả năng nhận diện hình ảnh theo thời gian thực. Những ý tưởng liên quan đến nguy cơ AI tận thế chủ yếu đến từ các bộ phim khoa học viễn tưởng, và mặc dù có giới hạn, nhưng thời đại AI đang chứng minh rằng một số ý tưởng từ khoa học viễn tưởng có thể không mãi mãi là hư cấu.
Cuộc chiến phía trước vào năm 2025
Các nhà làm chính sách đứng sau dự luật SB 1047 đã ám chỉ rằng họ có thể trở lại vào năm 2025 với một dự luật sửa đổi để giải quyết các rủi ro lâu dài của AI. Một trong những nhà tài trợ cho dự luật, Encode, cho biết sự chú ý quốc gia mà SB 1047 thu hút là một tín hiệu tích cực.
“Phong trào an toàn AI đã có những bước tiến rất đáng khích lệ trong năm 2024, mặc dù dự luật SB 1047 đã bị phủ quyết,” Sunny Gandhi, Phó Chủ tịch Quan hệ Chính trị của Encode, nói trong một email gửi TechCrunch. “Chúng tôi lạc quan rằng nhận thức của công chúng về các rủi ro lâu dài của AI đang ngày càng tăng và có sự sẵn sàng ngày càng lớn từ các nhà làm chính sách trong việc đối phó với những thách thức phức tạp này.”
Gandhi cho biết Encode kỳ vọng sẽ có "những nỗ lực đáng kể" vào năm 2025 để điều chỉnh các rủi ro thảm họa có liên quan đến AI, mặc dù ông không tiết lộ cụ thể về các nỗ lực đó.
Ở phía đối lập, Martin Casado, đối tác chính của a16z, là một trong những người dẫn đầu cuộc chiến chống lại việc điều chỉnh các rủi ro thảm họa AI. Trong một bài viết vào tháng 12 về chính sách AI, Casado lập luận rằng chúng ta cần một chính sách AI hợp lý hơn trong tương lai, tuyên bố rằng “AI có vẻ cực kỳ an toàn.”
“Làn sóng đầu tiên của các nỗ lực chính sách AI kém cỏi phần lớn đã qua,” Casado nói trong một tweet tháng 12. “Hy vọng rằng chúng ta có thể thông minh hơn trong tương lai.”
Việc gọi AI là “cực kỳ an toàn” và các nỗ lực điều chỉnh nó là “kém cỏi” có phần đơn giản hóa quá mức. Ví dụ, Character.AI – một startup mà a16z đã đầu tư – hiện đang bị kiện và điều tra về các mối lo ngại về an toàn cho trẻ em. Trong một vụ kiện đang diễn ra, một cậu bé 14 tuổi ở Florida đã tự sát sau khi nói với chatbot của Character.AI về những suy nghĩ tự tử, mà cậu đã trò chuyện tình cảm và tình dục với nó. Vụ việc này cho thấy xã hội của chúng ta phải chuẩn bị cho những loại rủi ro mới liên quan đến AI, điều mà chỉ vài năm trước đây có thể nghe có vẻ vô lý.
Có nhiều dự luật khác cũng đang được đưa ra để giải quyết rủi ro lâu dài của AI – bao gồm một dự luật vừa được giới thiệu tại cấp liên bang bởi Thượng nghị sĩ Mitt Romney. Nhưng giờ đây, có vẻ như các người chỉ trích AI sẽ phải đối mặt với một cuộc chiến đầy khó khăn trong năm 2025.