Khi một công nghệ có thể trò chuyện với chúng ta, việc nhìn nhận nó như một con người là điều tự nhiên. Ta dễ dàng xem chatbot như một robot biết suy nghĩ và nói chuyện, nhưng điều này đánh giá quá cao công nghệ. Điều này cũng có thể khiến mọi người, kể cả các thẩm phán trong các vụ kiện liên quan đến chatbot AI, bỏ qua những lựa chọn diễn đạt của con người liên quan đến những từ mà chatbot tạo ra. Nếu các phản hồi của chatbot không được bảo vệ bởi Tu chính án thứ nhất, chính phủ có thể cấm các chatbot chỉ trích chính quyền hoặc phản ánh các quan điểm mà chính quyền không đồng ý.
Trên thực tế, đầu ra của chatbot có thể phản ánh không chỉ các lựa chọn diễn đạt của người tạo và người dùng mà còn ngụ ý quyền của người dùng được nhận thông tin. Vì lý do đó, EFF (Electronic Frontier Foundation) và Trung tâm Dân chủ và Công nghệ (CDT) đã đệ trình một bản tóm tắt amicus curiae trong vụ kiện García kiện Character Technologies, trong đó giải thích cách thức hoạt động của các mô hình ngôn ngữ lớn và các loại biểu đạt được bảo vệ khác nhau đang bị đe dọa.
Trong số các vấn đề được nêu ra trong vụ kiện này, có vấn đề là liệu các đảm bảo về quyền tự do ngôn luận có mở rộng đến việc tạo, phổ biến và tiếp nhận các kết quả của chatbot hay không. Trong bản tóm tắt của chúng tôi, chúng tôi giải thích cách các quyết định thể hiện của nhà phát triển chatbot có thể ảnh hưởng đến kết quả, chẳng hạn như trong quá trình học tăng cường, khi con người được hướng dẫn đưa ra phản hồi tích cực cho các phản hồi phù hợp với sự đồng thuận khoa học về biến đổi khí hậu và phản hồi tiêu cực cho những phản hồi phủ nhận nó (hoặc ngược lại). Chuỗi các quyết định thể hiện của con người này kéo dài từ các giai đoạn đầu của việc lựa chọn dữ liệu đào tạo đến việc xây dựng các lời nhắc hệ thống. Hướng dẫn của người dùng cũng được phản ánh trong kết quả của chatbot. Khác xa so với lời nói của một robot, kết quả của chatbot thường phản ánh sự thể hiện của con người, vốn được bảo vệ bởi Tu chính án thứ nhất.
Hơn nữa, quyền được nhận ngôn luận đó được bảo vệ, ngay cả khi người nói không có quyền độc lập để bày tỏ nó. Người dùng có quyền truy cập thông tin do chatbot cung cấp.
Không điều nào trong số này cho thấy rằng chatbot không thể bị kiểm soát hoặc không thể giải quyết những thiệt hại mà chúng gây ra. Tu chính án thứ nhất chỉ đơn giản yêu cầu các quy định đó phải được điều chỉnh một cách thích hợp đối với thiệt hại để tránh gánh nặng quá mức đối với quyền thể hiện thông qua chatbot hoặc nhận thông tin mà nó cung cấp.
Chúng tôi hy vọng rằng bản tóm tắt của chúng tôi sẽ hữu ích cho tòa án khi vụ kiện tiến triển, vì thẩm phán đã quyết định không chuyển vấn đề này lên kháng cáo vào thời điểm này.
Đọc bản tóm tắt của chúng tôi dưới đây (bằng tiếng Anh)
Các thuật ngữ:
- Chatbot AI: Một chương trình máy tính được thiết kế để mô phỏng cuộc trò chuyện với người dùng, thường sử dụng trí tuệ nhân tạo để hiểu và trả lời các câu hỏi.
- Tu chính án thứ nhất: Một điều khoản trong Hiến pháp Hoa Kỳ bảo vệ các quyền tự do cơ bản, bao gồm tự do ngôn luận, tự do báo chí, tự do tôn giáo, quyền hội họp và quyền kiến nghị chính phủ.
- Amicus curiae: Một bản tóm tắt pháp lý được đệ trình lên tòa án bởi một bên không trực tiếp liên quan đến vụ kiện, nhưng có kiến thức chuyên môn hoặc quan điểm có thể giúp tòa án đưa ra quyết định.
- Mô hình ngôn ngữ lớn: Một loại mô hình trí tuệ nhân tạo có khả năng hiểu và tạo ra văn bản giống như con người, thường được sử dụng trong các ứng dụng chatbot.
- Học tăng cường: Một phương pháp đào tạo mô hình trí tuệ nhân tạo bằng cách thưởng hoặc phạt mô hình dựa trên hành động của nó, giúp mô hình học cách đưa ra các quyết định tốt hơn theo thời gian.