Những người tạo ra robot cho OpenAI đã thấy được một tương lai đáng sợ

robot
Đang tạo bản tóm tắt

Tác giả: Các bạn cũ của giới công nghệ

Ngày 7 tháng 3 năm 2026, khi tôi nhìn thấy tin Caitlin Kalinowski từ chức, phản ứng đầu tiên không phải là sốc, mà là—“Cuối cùng cũng có người hành động để nói lên điều đó.”

Kalinowski là trưởng bộ phận kỹ thuật phần cứng và robot của OpenAI, mới gia nhập vào tháng 11 năm 2024, chưa đầy một năm rưỡi đã quyết định rời đi.

Lý do của cô rất rõ ràng và nặng nề—do việc OpenAI ký hợp đồng với Bộ Quốc phòng Mỹ, có thể dẫn đến các hoạt động giám sát trong nước và ứng dụng vũ khí tự động, cô cảm thấy không thể chấp nhận được.

Đây không phải là một sự mất mát nhân tài bình thường. Đây là một người trực tiếp tham gia xây dựng thân thể AI, dùng việc từ chức để nói với thế giới: cô không muốn chịu trách nhiệm về những gì mình đã tạo ra, về những việc nó có thể làm.

Để hiểu lý do Kalinowski rời đi, trước hết phải quay lại khoảng một tuần trước đó.

Ngày 28 tháng 2, Sam Altman tuyên bố OpenAI đã đạt thỏa thuận với Bộ Quốc phòng Mỹ, cho phép Pentagon sử dụng các mô hình AI của OpenAI trong mạng lưới phân loại của họ. Thông báo này gây chấn động dư luận.

Điều thú vị là, “đối tượng tham khảo” của hợp đồng này chính là đối thủ cạnh tranh Anthropic.

Chỉ trước đó không lâu, Anthropic đã từ chối đề nghị hợp tác tương tự từ Pentagon, kiên quyết yêu cầu hợp đồng có các giới hạn đạo đức nghiêm ngặt hơn. Kết quả, Bộ trưởng Quốc phòng Pete Hegseth đã trực tiếp chỉ trích trên X, gọi hành động của Anthropic là “bài học về sự kiêu ngạo và phản bội”, đồng thời phản ánh lệnh của chính phủ Trump dừng hợp tác với Anthropic.

Sau đó, OpenAI tiếp nhận thương vụ này.

Phản ứng của người dùng rất dữ dội. Ngày 28 tháng 2, số lượng gỡ cài đặt ChatGPT tăng vọt 295% so với ngày hôm trước, phong trào #QuitGPT nhanh chóng lan rộng trên mạng xã hội, hơn 2,5 triệu người ủng hộ tẩy chay trong vòng ba ngày. Claude đã vượt qua ChatGPT để trở thành ứng dụng tải xuống nhiều nhất hàng ngày tại Mỹ, đứng đầu danh sách ứng dụng miễn phí trên Apple App Store.

Dưới áp lực, Altman đã công khai thừa nhận vào ngày 3 tháng 3 rằng “chúng tôi không nên vội vàng đưa ra hợp đồng này”, gọi đó là “chỉ mang vẻ ngoài cơ hội và thiếu suy nghĩ”, và tuyên bố sẽ chỉnh sửa lại nội dung hợp đồng, rõ ràng rằng “hệ thống AI không nên bị cố ý sử dụng để giám sát trong nước đối với nhân viên và công dân Mỹ.”

Tuy nhiên, từ “cố ý” trong câu này chính là một lỗ hổng. Luật sư của Quỹ Điện tử Tiên phong (Electronic Frontier Foundation) đã chỉ rõ rằng, các cơ quan tình báo và thực thi pháp luật thường dựa vào dữ liệu “tình cờ” hoặc “mua bán thương mại” để tránh các quy định về quyền riêng tư chặt chẽ hơn—thêm từ “cố ý” vào không đồng nghĩa với việc thực sự hạn chế.

Việc Kalinowski từ chức chính là trong bối cảnh này.

01 Cô ấy thấy rõ hơn chúng ta nghĩ

Trong khi phần lớn mọi người còn đang tranh luận “OpenAI có đang nhượng bộ chính phủ không”, thì Kalinowski lại đối mặt với một vấn đề cụ thể và khốc liệt hơn—đó là đội của cô đang chế tạo robot.

Kỹ thuật phần cứng và robot không phải là công việc trừu tượng chỉ viết mã, điều chỉnh tham số. Đó là việc trang bị cho AI đôi tay, đôi chân, đôi mắt. Khi hợp tác giữa OpenAI và Bộ Quốc phòng chuyển từ “sử dụng mô hình” sang khả năng ứng dụng “AI có thân thể trong quân sự”, tính chất công việc của Kalinowski đã thay đổi.

Các nhà nghiên cứu trong lĩnh vực vũ khí tự động đã cảnh báo về ngày này từ lâu.

Chính sách hiện tại của Bộ Quốc phòng Mỹ không yêu cầu các vũ khí tự động phải qua phê duyệt thủ công trước khi sử dụng vũ lực. Nói cách khác, hợp đồng của OpenAI về mặt kỹ thuật không ngăn cản mô hình của họ trở thành một phần của hệ thống “GPT quyết định giết người”.

Điều này không phải là lời đồn đại. Giảng viên luật mua sắm chính phủ của Đại học Georgetown, Jessica Tillipman, đã phân tích rõ trong hợp đồng sửa đổi của OpenAI rằng, “không có điều khoản nào cho phép OpenAI tự do như Anthropic để cấm chính phủ hợp pháp sử dụng”, mà chỉ tuyên bố rằng Pentagon không thể dùng công nghệ của OpenAI để vi phạm “các luật và chính sách hiện hành”—nhưng các luật hiện tại về giám sát vũ khí tự động đã tồn tại khoảng trống lớn.

Các chuyên gia quản trị của Đại học Oxford cũng có nhận định tương tự, cho rằng “không có khả năng hợp đồng của OpenAI sẽ lấp đầy” các lỗ hổng về cấu trúc trong việc giám sát nội địa dựa trên AI và hệ thống vũ khí tự động.

Việc Kalinowski rời đi chính là phản ứng cá nhân của cô trước nhận định này.

02 Những gì đang xảy ra bên trong OpenAI

Kalinowski không phải là người đầu tiên rời đi, và có khả năng cũng không phải là người cuối cùng.

Có số liệu cho thấy tỷ lệ rời khỏi đội ngũ đạo đức và an toàn AI của OpenAI đã lên tới 37%, và phần lớn lý do họ đưa ra là “không phù hợp với giá trị của công ty” hoặc “không thể chấp nhận AI dùng vào mục đích quân sự”. Nhà nghiên cứu khoa học Aidan McLaughlin đã viết trong nội bộ rằng, “Theo ý kiến cá nhân tôi, thương vụ này không đáng giá.”

Điều đáng chú ý là, đợt rời đi này diễn ra đúng vào giai đoạn OpenAI đang mở rộng nhanh chóng lĩnh vực kinh doanh. Trước và sau vụ hợp đồng quốc phòng, công ty đã công bố mở rộng thỏa thuận với AWS từ 38 tỷ USD lên 100 tỷ USD, thời hạn tám năm; đồng thời điều chỉnh mục tiêu chi tiêu công khai, dự kiến đến năm 2030 tổng doanh thu sẽ vượt quá 2800 tỷ USD.

Sự tăng tốc trong kinh doanh, cùng với việc các nhóm an toàn liên tục rời khỏi, tạo ra một khoảng cách lớn—đây chính là trục quan trọng nhất để hiểu tình hình hiện tại của OpenAI.

Giá trị của một công ty cuối cùng thể hiện qua việc họ giữ chân được ai, mất ai. Khi những người quan tâm nhất đến “cách sử dụng công nghệ này” bắt đầu rời đi, còn lại tổ chức sẽ hướng về đâu, điều đó dễ dàng dự đoán.

Anthropic đã chọn con đường khác trong cuộc chơi này—từ chối hợp đồng, chấp nhận bị Bộ Quốc phòng giận dữ, nhưng lại giành được lòng tin của nhiều người dùng. Thời điểm đó, lượng tải Claude tăng ngược dòng, phần nào chứng minh rằng “từ chối có nguyên tắc” trong kinh doanh không nhất thiết là chiến lược thất bại.

Nhưng Anthropic cũng phải trả giá—ít nhất là bị chính phủ loại khỏi danh sách, ít nhất trong thời gian này.

Đây chính là thực trạng khó khăn thực sự: không có lựa chọn nào là hoàn hảo.

Từ chối có thể đồng nghĩa với mất ảnh hưởng, thậm chí bị loại khỏi quá trình đặt ra quy tắc. Chấp nhận nghĩa là dùng công nghệ của mình để bảo chứng cho những hành vi mà chính họ không thể kiểm soát hoàn toàn.

Câu trả lời của Kalinowski là con đường thứ ba—rời đi.

Đó là điều chân thành nhất cô có thể làm.

03 Cuộc chiến linh hồn của Silicon Valley mới bắt đầu

Nếu mở rộng tầm nhìn ra xa hơn, ý nghĩa của sự kiện này vượt xa một người từ chức.

Sự kết hợp giữa AI và quân sự là câu hỏi bắt buộc toàn ngành phải đối mặt sớm muộn. Pentagon có ngân sách, có nhu cầu, có khả năng tích hợp công nghệ, họ sẽ không ngừng mở rộng các mối quan hệ với các công ty AI. Và các công ty AI—dù là OpenAI theo đuổi AGI, Anthropic nhấn mạnh về an toàn, hay các đối thủ khác—sớm muộn cũng phải đưa ra câu trả lời của riêng mình trước câu hỏi này.

Chiến lược của Altman là cố gắng thích nghi với thực tế thương mại, đồng thời dùng các điều khoản hợp đồng để giới hạn. Nhưng như nhiều chuyên gia pháp lý và quản trị đã chỉ ra, những điều khoản đó chỉ mang tính hình thức PR, chứ không phải là các ràng buộc cứng về mặt kỹ thuật.

Vấn đề sâu xa hơn là, khi mô hình AI được triển khai vào mạng phân loại, bắt đầu tham gia vào các quyết định quân sự, thế giới bên ngoài hoàn toàn không có khả năng xác minh liệu những “đảm bảo” đó có thực sự được thực thi hay không.

Thiếu minh bạch chính là rủi ro lớn nhất.

Kalinowski đã làm việc tại OpenAI chưa đầy một năm rưỡi, nhưng ở thời điểm này, cô đã chọn rời đi. Cô không đưa ra tuyên bố dài dòng, không chỉ trích ai rõ tên, chỉ đơn giản dùng hành động để xác định giới hạn của mình.

Trong một ý nghĩa nào đó, điều này còn mạnh mẽ hơn bất kỳ bài viết chính sách nào.

Kỹ thuật phần cứng và robot vốn là một trong những lĩnh vực tiên phong hấp dẫn nhất của Silicon Valley. Khi Kalinowski rời đi, cô mang theo không chỉ một bản lý lịch, mà còn để lại một câu hỏi cho tất cả những ai còn ở lại trong ngành này—

Bạn sẵn sàng chịu trách nhiệm đến đâu về những gì mình đã tạo ra?

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.4KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.4KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.4KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$3.81KNgười nắm giữ:3
    9.44%
  • Ghim