Rủi ro bảo mật khi sử dụng ChatGPT

Theo dõi Báo Gia Lai trên Google News
Trong bối cảnh các "ông lớn" công nghệ chạy đua phát triển trí tuệ nhân tạo (AI), các chatbot như ChatGPT làm dấy lên mối lo ngại về quyền riêng tư dữ liệu giữa các công ty và cơ quan quản lý.

Ngân hàng lớn nhất nước Mỹ JPMorgan Chase, Amazon và công ty công nghệ Accenture đều hạn chế nhân viên sử dụng ChatGPT vì lo ngại về bảo mật dữ liệu.

Theo CNN, nỗi lo của những doanh nghiệp này hoàn toàn có cơ sở. Vào ngày 20.3, chatbot của OpenAI đã xảy ra lỗi và làm lộ dữ liệu người dùng. Dù lỗi nhanh chóng được khắc phục, công ty tiết lộ sự cố này đã ảnh hưởng đến 1,2% lượng người dùng ChatGPT Plus. Thông tin bị rò rỉ gồm họ tên, địa chỉ email, địa chỉ thanh toán, bốn chữ số cuối của số thẻ tín dụng và ngày hết hạn của thẻ.

Ngày 31.3, cơ quan bảo vệ dữ liệu của Ý (Garante) đã ban hành lệnh cấm tạm thời ChatGPT với lý do lo ngại về quyền riêng tư sau khi OpenAI tiết lộ lỗ hổng này.

Mark McCreary - Đồng chủ tịch về bảo mật dữ liệu và quyền riêng tư tại công ty luật Fox Rothschild LLP - chia sẻ với CNN rằng những lo ngại về bảo mật xoay quanh ChatGPT không hề bị phóng đại. Chatbot AI được ông ví von như "một chiếc hộp đen".

ChatGPT được OpenAI ra mắt vào tháng 11.2022 và nhanh chóng thu hút được sự chú ý nhờ khả năng viết bài tiểu luận, sáng tác truyện hay lời nhạc bằng cách đưa ra câu lệnh (prompt). Các "gã khổng lồ" công nghệ như Google và Microsoft cũng tung ra các công cụ AI hoạt động tương tự, được hỗ trợ bởi các mô hình ngôn ngữ lớn được đào tạo dựa trên kho dữ liệu trực tuyến khổng lồ.

Sau động thái của Ý, Đức cũng đang cân nhắc cấm ChatGPT. Chụp màn hình

Sau động thái của Ý, Đức cũng đang cân nhắc cấm ChatGPT. Chụp màn hình

Khi người dùng nhập thông tin vào các công cụ này, họ không biết sau đó nó sẽ được dùng như thế nào, ông McCreay nói thêm. Điều này rất đáng lo đối với các công ty khi ngày càng có nhiều nhân viên sử dụng các công cụ để trợ giúp viết email công việc hay ghi chú cho các cuộc họp, dẫn đến khả năng bị lộ bí mật thương mại ngày một lớn.

Steve Mills - Giám đốc đạo đức AI tại Boston Consulting Group (BCG) - nói các công ty lo ngại về việc nhân viên vô tình tiết lộ thông tin nhạy cảm. Nếu dữ liệu mà mọi người nhập vào đang được sử dụng để đào tạo công cụ AI này, thì họ đã mất quyền kiểm soát dữ liệu vào tay người khác.

Theo chính sách bảo mật của OpenAI, công ty có thể thu thập tất cả các thông tin cá nhân và dữ liệu của người sử dụng dịch vụ để cải thiện mô hình AI. Họ có thể sử dụng những thông tin này để cải thiện hoặc phân tích dịch vụ của mình, tiến hành nghiên cứu, giao tiếp với người dùng và phát triển chương trình, dịch vụ mới.

Chính sách bảo mật có nêu rõ OpenAI có thể cung cấp thông tin cá nhân cho bên thứ ba mà không cần thông báo đến người dùng, trừ khi pháp luật yêu cầu. OpenAI cũng có tài liệu Điều khoản dịch vụ riêng, tuy nhiên công ty đặt phần lớn trách nhiệm lên người dùng để thực hiện các biện pháp thích hợp khi tương tác với các công cụ AI.

Chủ sở hữu của ChatGPT đã đăng bài trên blog về cách tiếp cận AI an toàn. Công ty nhấn mạnh không sử dụng dữ liệu để bán dịch vụ, quảng cáo hoặc xây dựng hồ sơ của người dùng, OpenAI sử dụng dữ liệu để làm cho các mô hình hữu ích hơn. Ví dụ như cuộc hội thoại của người dùng sẽ được sử dụng để đào tạo ChatGPT.

Chính sách bảo mật của ChatGPT bị đánh giá còn khá mơ hồ. Chụp màn hình

Chính sách bảo mật của ChatGPT bị đánh giá còn khá mơ hồ. Chụp màn hình

Chính sách bảo mật của Google, công ty đang phát triển công cụ Bard AI, có những điều khoản bổ sung cho người dùng AI. Công ty sẽ chọn một phần nhỏ của cuộc hội thoại và sử dụng công cụ tự động để xóa đi những thông tin nhận dạng cá nhân. Cách này vừa giúp cải thiện Bard, đồng thời bảo vệ quyền riêng tư của người dùng.

Những cuộc hội thoại mẫu sẽ được những chuyên gia đào tạo xem xét và lưu giữ trong tối đa 3 năm, tách biệt với tài khoản Google của người dùng. Google cũng nhắc nhở người dùng không đưa thông tin cá nhân của bản thân hoặc người khác vào các cuộc trò chuyện trên Bard AI. "Gã khổng lồ công nghệ" nhấn mạnh không dùng những đoạn hội thoại này cho mục đích quảng cáo và sẽ thông báo về thay đổi trong tương lai.

Bard AI cho phép người dùng lựa chọn không lưu các đoạn hội thoại vào tài khoản Google, cũng như xem lại hay xóa cuộc hội thoại thông qua liên kết. Bên cạnh đó, công ty có các biện pháp bảo vệ được thiết kế để ngăn Bard đưa thông tin cá nhân vào các phản hồi.

Steve Mills cho rằng đôi khi người dùng và nhà phát triển chỉ phát hiện những rủi ro bảo mật ẩn giấu trong các công nghệ mới khi đã quá muộn. Ví dụ như chức năng tự động điền (autocomplete) có thể vô tình làm lộ số an sinh xã hội của người dùng.

Người dùng không nên đưa bất cứ thứ gì mà bản thân không muốn chia sẻ cho người khác vào các công cụ này, ông Mills nhận định.

Có thể bạn quan tâm