Dịch vụ mở tài khoản ChatGPT đang nở rộ tại Việt Nam với mức giá từ 8.000 - 300.000 đồng. Tuy nhiên, chuyên gia bảo mật cảnh báo, người mua tài khoản có thể bị lừa đảo mất tiền cũng như để lọt thông tin cá nhân, tài chính... vào tay người bán.
Theo tìm hiểu của
PV Lao Động, suốt 1 tuần vừa qua nhu cầu tạo tài khoản ChatGPT đang tăng mạnh.
Trên nhiều diễn đàn mạng xã hội, nhiều bài đăng sẵn sàng bán tài khoản chat và
các dịch vụ liên quan với mức giá dao động từ 8.000 - 300.000 đồng.
Do OpenAI chưa hỗ
trợ thị trường Việt Nam, một số người dùng đang có xu hướng tìm đến các dịch vụ
mở tài khoản ChatGPT. Theo đó, các tài khoản này đang được bán giá sỉ, lẻ với số
lượng lớn. Để trục lợi, một số người thậm chí tranh thủ thu gom sau đó bán tài
khoản loại 1- 2 nhưng với giá của loại 3 - 4.
Dữ liệu từ
Similar Web trước đó cho thấy chỉ sau hai tháng ra mắt, ChatGPT của OpenAI đã đạt
100 triệu người dùng. Trong khi đó theo thống kê của Sensor Tower, TikTok cần 9
tháng sau khi phát hành toàn cầu để đạt 100 triệu người dùng, còn Instagram mất
tới 2,5 năm, Google Translate là 6,5 năm cho thấy sức ảnh hưởng mạnh mẽ của
ChatGPT.
Nhiều chuyên gia
cảnh báo, trước khi tiến hành các giao dịch nhờ tạo hoặc mua bán tài khoản
ChatGPT với người khác trên mạng xã hội, người dùng nên kiểm tra lại độ an toàn
trong giao dịch sắp thực hiện.
Đặc biệt người
dùng tuyệt đối không cung cấp thông tin cá nhân, đặc biệt là các thông tin như
thẻ tín dụng để tránh các nguy cơ bị lừa đảo.
Anh Ngô Minh Hiếu
- Chuyên gia bảo mật tại Trung tâm Giám sát và An toàn không gian mạng Quốc gia
- cho biết, OpenAI đang sử dụng các bộ dữ liệu có sẵn được thu thập từ nhiều
nguồn để dạy ChatGPT. Người dùng có thể xem như một nguồn thông tin tham khảo,
không nên quá tin tưởng vào ChatGPT bởi độ chính xác của câu trả lời đôi khi có
vấn đề.
Chuyên gia nhấn
mạnh, công nghệ lúc nào cũng có hai mặt sáng và tối. Ở chiều ngược lại, nếu
không có sự sàng lọc về dữ liệu, ChatGPT có thể sẽ trở thành thảm họa. Hacker
có thể lợi dụng chương trình này để viết các nội dung email lừa đảo.
Với sự phát triển
nhanh của AI, người dùng phải cẩn trọng vì sẽ có thêm một loạt các hình thức lừa
đảo mới như sử dụng công nghệ để giả giọng con người hoặc che đậy danh tính thực
nhằm mục đích lừa đảo, phá hoại hay bôi nhọ người khác, thậm chí qua mặt các hệ
thống an ninh. Đây là điều đã từng xảy ra với sự xuất hiện của DeepFake trước
đó./.
Không có nhận xét nào:
Đăng nhận xét