(TAP) - Character.AI chuẩn bị cấm toàn bộ trẻ em (tức người dùng dưới 18 tuổi) trò chuyện mở với chatbot AI kể từ ngày 25/11. Động thái diễn ra giữa bối cảnh ngày càng có nhiều mối lo ngại về tác động tiêu cực khi trẻ em tương tác cùng công nghệ trí tuệ nhân tạo (AI).
Character.AI nổi bật với kho nhân vật AI đa dạng, khả năng trò chuyện như người thật. Tuy nhiên, nền tảng đối thoại này ngày 29/10 cho biết, từ nay đến thời điểm lệnh cấm có hiệu lực (25/11), trẻ em sẽ bị giảm dần quyền truy cập. Ban đầu, người dùng dưới 18 tuổi chỉ được trò chuyện tối đa 2 giờ/ngày trước khi bị chặn hoàn toàn. Ở bài blog cùng ngày, Character.AI nêu rõ công ty đặt mục tiêu xây dựng trải nghiệm mới dành riêng người dưới 18 tuổi. Với lệnh cấm mới, mặc dù thanh thiếu niên không thể trò chuyện mở tự do nữa nhưng vẫn có thể tạo video, câu chuyện hoặc phát trực tiếp bằng nhân vật AI. Character.AI tuyên bố, đây là hướng đi cần thiết trong thời điểm nhạy cảm.
Công ty nhận định việc điều chỉnh là bắt buộc giữa bối cảnh AI bị đánh giá tiêu cực ở những báo cáo gần đây, cùng cảnh báo từ các nhà lập pháp, lẫn cơ quan quản lý. Theo Character.AI, họ đã đánh giá kỹ lưỡng ý kiến của chuyên gia an toàn, phụ huynh và cơ quan chức năng trước lúc đưa ra quyết định mạnh mẽ. Hãng bày tỏ muốn hành động thận trọng hơn nhiều so với các đối thủ, tin rằng quyết định trên hoàn toàn đúng đắn nhằm bảo vệ người dùng trẻ.

Character.AI cấm trẻ em trò chuyện với chatbot AI từ ngày 25/11. Nguồn: blog.character.ai
Thay đổi lớn này diễn ra sau thời điểm một số công ty công nghệ AI bị điều tra vì liên quan đến nhiều vụ tự tử ở thanh thiếu niên. The New York Times (NYT) hồi 24/10 thông tin, mẹ cậu bé Sewell Setzer III (14 tuổi) năm ngoái đã kiện Character.AI, cáo buộc chatbot từ công ty khiến con trai bà tự tử. The Hill ngày 29/10 đưa tin, Ủy ban Thương mại Liên bang (Federal Trade Commission) đã mở cuộc điều tra vào tháng 9, yêu cầu Character.AI, OpenAI cùng những công ty công nghệ khác cung cấp thông tin về mức độ an toàn khi sử dụng chatbot AI.
Ngoài hạn chế trò chuyện trực tiếp, thông báo ngày 29/10 từ Character.AI nhấn mạnh, công ty sẽ triển khai công nghệ đảm bảo an toàn mới. Nền tảng dự định thành lập tài trợ một tổ chức phi lợi nhuận có tên Phòng thí nghiệm An toàn AI (AI Safety Lab), giúp nghiên cứu sâu hơn về vấn đề bảo vệ trẻ em trên môi trường kỹ thuật số. Quyết định trên đánh dấu bước ngoặt quan trọng trong việc quản lý AI cho trẻ em. Giữa lúc công nghệ phát triển nhanh chóng, an toàn trở thành ưu hàng hàng đầu của các công ty, nhà quản lý. Ngành công nghệ cần phải thay đổi để đáp ứng kỳ vọng mới về trách nhiệm và an toàn số.
Từ nay đến thời điểm lệnh cấm có hiệu lực, quyền truy cập của trẻ em trên Character.AI sẽ bị giảm dần. Nguồn: blog.character.ai
Danny Tran
