“Đối thủ GPT của Facebook bị rò rỉ thông tin và xuất hiện trên 4chan”

Trí tuệ nhân tạo (AI) đã trở thành một trong những chủ đề nóng nhất của thế giới công nghệ hiện nay. Và ChatGPT cùng với dòng AI chung của nó đang được nhắc đến nhiều trong cuộc đua này. Nhiều công ty công nghệ lớn như Facebook và Instagram của Meta đã tham gia cuộc đua này bằng cách tạo ra trí tuệ nhân tạo của riêng họ. Tuy nhiên, trong một sự kiện gần đây, mô hình ngôn ngữ của Meta đã bị rò rỉ trên internet công cộng. Điều này cho thấy rằng các công ty công nghệ lớn có thể cố gắng giữ kín các mô hình của họ, nhưng sớm hay muộn, những mô hình đó sẽ đến với công chúng. Mặc dù việc mở mã nguồn AI có những rủi ro như thư rác hoặc lừa đảo được cá nhân hóa, nhưng nó cũng đem lại nhiều cơ hội cho sự phát triển của AI. Bây giờ, AI đang bước vào thế giới thực. Không phải trong tương lai, nhưng bây giờ.
Trừ khi bạn đã từng sống trong hang động, nếu không bạn có thể biết về ChatGPT và dòng AI chung của nó. Trí tuệ nhân tạo đã gây bão trên toàn thế giới, khiến các công ty công nghệ lớn điên cuồng tạo ra trí tuệ nhân tạo của riêng họ. Tất nhiên, công ty mẹ của Facebook và Instagram là Meta cũng tham gia cuộc đua. Nhưng trong một sự kiện gần đây, mô hình ngôn ngữ đã bị rò rỉ trực tuyến. Trong tất cả các nơi, nó đã tìm đường đến 4chan – dòng nước thải của internet.
AI và xã hội
Có vẻ như chỉ một hoặc hai năm trước, AI đã có thể thực hiện được nhưng nội dung giống con người thì đã cách đây hàng chục năm. Bây giờ, nó ở đây. OpenAI gần đây đã ra mắt GPT-4 (viết tắt của Generative Pre-training Transformer 4), phiên bản mới nhất trong sê-ri. Nó là phiên bản kế thừa của GPT-3 và ChatGPT và trong nhiều trường hợp, nó tạo ra văn bản giống con người.
Kể từ khi OpenAI ra mắt AI này, các công ty công nghệ lớn khác đã tung ra các giải pháp thay thế của riêng họ. Mặc dù chúng có vẻ tụt hậu so với OpenAI nhưng đây vẫn là một AI rất ấn tượng.
Ví dụ: mô hình ngôn ngữ lớn của Facebook (được gọi là LLaMa) chỉ dành cho các thành viên được phê duyệt. Hoặc ít nhất, đó là cho đến vài ngày trước. Mô hình ngôn ngữ đã bị rò rỉ và sau đó được chia sẻ trên 4chan.
Một số nhà khoa học máy tính đã xác nhận vụ rò rỉ, theo bờ vực. Đây là lần đầu tiên mô hình thế hệ độc quyền của một công ty lớn bị rò rỉ ra công chúng.
Theo Vice, Meta không phủ nhận việc rò rỉ đã xảy ra, thay vào đó, Meta cho biết:
“Mục tiêu của Meta là chia sẻ các mô hình AI tiên tiến với các thành viên của cộng đồng nghiên cứu để giúp chúng tôi đánh giá và cải thiện các mô hình đó. LLaMA đã được chia sẻ cho mục đích nghiên cứu, phù hợp với cách chúng tôi đã chia sẻ các mô hình ngôn ngữ lớn trước đây. Mặc dù không phải tất cả mọi người đều có thể truy cập mô hình này và một số cố gắng phá vỡ quy trình phê duyệt, nhưng chúng tôi tin rằng chiến lược phát hành hiện tại cho phép chúng tôi cân bằng giữa trách nhiệm và sự cởi mở,” một phát ngôn viên của Meta đã viết trong email.
Điều khá mỉa mai là, mặc dù Meta tự hào rằng sử dụng phương pháp phát hành hạn chế là một cách để “dân chủ hóa quyền truy cập” vào các mô hình ngôn ngữ lớn, những kiểu rò rỉ này vẫn xảy ra. Điều này càng trớ trêu hơn vì cách tiếp cận này được sử dụng để tránh loại đầu ra độc hại mà chúng ta đã thấy từ AI trong quá khứ.
Thực tế là nó đã đạt đến 4chan, nơi có nhiều tranh cãi thuộc nhiều loại khác nhau, từ phân biệt chủng tộc và liên kết với quyền thay thế cho đến chủ nghĩa hack, thậm chí còn đáng nói hơn. Các công ty công nghệ lớn có thể cố gắng giữ kín các mô hình của họ, nhưng có vẻ như sớm hay muộn, những mô hình đó sẽ đến với công chúng — hoặc một bộ phận nào đó của công chúng.
Chúng ta có thể mở mã nguồn AI không?
Một số đổ lỗi cho Meta về cách tiếp cận của nó và nói rằng tất cả chúng ta nên lường trước những hậu quả như thư rác hoặc lừa đảo sẽ đến với chúng ta.
Các chuyên gia khác dường như có những ý tưởng khác nhau. Ví dụ, các nhà nghiên cứu Sayash Kapoor và Arvind Narayanan đã viết trong một bài đăng trên blog rằng bất chấp những cảnh báo về một làn sóng tấn công độc hại và thư rác do AI cung cấp, chúng tôi thực sự không thấy nhiều về điều này.
Hiện tại, thế giới AI đầy rẫy những khả năng và rủi ro, nhưng tất cả những điều này mới chỉ bắt đầu hình thành. Nếu sự cố này đã dạy cho chúng ta bất cứ điều gì, thì thật khó để giữ các thuật toán tránh xa con người.
Đối với người dùng bình thường, việc có thể tải xuống một công cụ như LLaMa không hiệu quả lắm. Đây không phải là một công cụ plug-and-play mà là một hệ thống AI phức tạp, đòi hỏi nhiều kinh nghiệm để thiết lập. Trên thực tế, LLaMa không phải là một hệ thống, mà là bốn hệ thống.
Nhưng điều này có nghĩa là ai đó có kinh nghiệm sẽ có thể chạy nó và bỏ qua ít nhất một số biện pháp bảo vệ mà công ty áp đặt. Ví dụ: ChatGPT nổi tiếng có một số biện pháp bảo vệ ngăn nó tạo ra sự cố chấp hoặc các loại nội dung gây tranh cãi hoặc có hại khác — nhưng nếu bạn chạy công cụ của riêng mình, bạn có thể vượt qua một số hạn chế đó.
Vụ rò rỉ này có thể sẽ kiểm tra giả thuyết đó và chúng ta sẽ sớm thấy mọi người có thể làm gì khi họ tự chạy AI.
Shawn Presser, một nhà nghiên cứu AI độc lập, người đã giúp phân phối mô hình bị rò rỉ, nói: “Tôi nghĩ rằng rất có thể việc phát hành mô hình này sẽ là một cột mốc quan trọng. bờ vực.
Bất kể, AI đang bước vào thế giới thực. Không phải trong tương lai, nhưng bây giờ.