OpenAI lo ngại người dùng sẽ nảy sinh tình cảm, phụ thuộc ChatGPT

VOH - Độ chân thực của tính năng giọng nói trí tuệ nhân tạo (AI) trong ChatGPT có thể khiến con người hình thành mối quan hệ gần gũi với AI.

Mới đây, OpenAI bày tỏ lo ngại rằng tính năng giọng nói chân thực của trí tuệ nhân tạo (AI) của hãng này có thể khiến con người hình thành mối quan hệ gần gũi với AI, gây ảnh hưởng đến tương tác xã hội giữa con người với nhau.

Công ty có trụ sở tại San Francisco đã dẫn chứng các nghiên cứu cho thấy việc trò chuyện với AI như thể đang nói chuyện với một con người có thể dẫn đến sự tin tưởng không đúng chỗ. OpenAI cũng cho rằng chất lượng giọng nói cao của GPT-4o có thể làm gia tăng tác động này.

Báo cáo về độ an toàn của phiên bản ChatGPT-4o của OpenAI ghi “Nhân hóa là quá trình gán những hành vi và đặc điểm của con người cho các thực thể phi nhân, chẳng hạn như các mô hình AI”.

“Rủi ro này có thể gia tăng bởi khả năng âm thanh của GPT-4o, giúp các tương tác với mô hình trở nên giống con người hơn.”

screenshot-5-9013
Biểu tượng của Công ty OpenAI và ChatGPT trên màn hình ở Toulouse, Pháp - Ảnh: AFP/TTXVN

Công ty này nhận thấy những người tham gia nghiên cứu trò chuyện với AI theo cách thể hiện mối quan hệ gần gũi, chẳng hạn như than thở rằng đó là ngày cuối cùng họ có thể nói chuyện với AI. Họ cho rằng những trường hợp này có vẻ vô hại nhưng cần được nghiên cứu kỹ hơn để xem chúng có thể phát triển như thế nào trong thời gian dài.

Nhà sáng lập ChatGPT đưa ra dự báo việc giao tiếp xã hội với AI cũng có thể khiến người dùng trở nên kém khéo léo hoặc ít muốn tương tác với con người hơn.

“Việc tương tác kéo dài với mô hình này có thể ảnh hưởng đến các chuẩn mực xã hội”, báo cáo cho biết.

“Chẳng hạn, các mô hình của chúng tôi thường rất lịch sự, cho phép người dùng ngắt lời và 'chiếm mic' bất cứ lúc nào, điều này là bình thường đối với AI, nhưng sẽ không đúng chuẩn mực trong tương tác giữa con người”.

Khả năng AI ghi nhớ chi tiết trong quá trình trò chuyện và thực hiện các nhiệm vụ cũng có thể khiến con người trở nên phụ thuộc quá mức vào công nghệ.

OpenAI cho biết họ sẽ tiếp tục thử nghiệm để hiểu rõ hơn về cách mà khả năng giọng nói trong AI có thể khiến con người trở nên gắn bó về mặt cảm xúc.

Các nhóm thử nghiệm tính năng giọng nói của ChatGPT-4o cũng đã phát hiện rằng mô hình này có thể bị kích hoạt để lặp lại thông tin sai lệch và tạo ra các thuyết âm mưu, gây lo ngại rằng AI có thể thuyết phục người dùng tin vào những điều sai sự thật.

Bình luận