Là hãng công nghệ đi sau nhưng lại muốn cạnh tranh với ứng dụng đang "làm mưa làm gió" trên thị trường trí tuệ nhân tạo (AI), Anthropic đã tiếp cận vấn đề từ các quy định về đạo đức để định hình sản phẩm chatbot Claude hứa hẹn sẽ tạo sự khác biệt với người dùng cũng như các quốc gia mà ứng dụng này hiện hữu.
Theo đó, công ty khởi nghiệp về AI Anthropic đã công bố văn bản tập hợp các giá trị đạo đức đã được sử dụng để đào tạo và đảm bảo an toàn cho chatbot Claude - đối thủ của phần mềm đang “làm mưa làm gió” ChatGPT.
Văn bản giá trị đạo đức mà Anthropic gọi là “hiến pháp Claude”, được hình thành từ một số nguồn, trong đó có Tuyên bố về Nhân quyền của Liên hợp quốc và các quy tắc bảo mật dữ liệu của Apple.
Đa số các chatbot AI đều dựa vào phản hồi từ nhân viên trong quá trình đào tạo, từ đó sẽ đánh giá và xếp hạng các phản hồi gây hại hoặc khó chịu. Tuy nhiên, những hệ thống này có thể gặp khó khăn trong việc dự đoán các câu hỏi và câu trả lời, vì vậy thường có xu hướng tránh nhắc đến một số chủ đề có khả năng gây tranh cãi như chính trị và chủng tộc.
Chatbot Claude là ứng dụng được nghiên cứu và phát triển bởi các cựu nhân viên của OpenAI.
Đối với Anthropic, chatbot Claude được huấn luyện theo một cách khác, khi dựa trên tập hợp các giá trị đạo đức có sẵn để đưa ra quyết định về cách trả lời câu hỏi.
Những giá trị này bao gồm việc phản đối các hành vi và ngôn ngữ tra tấn, tàn ác, liên quan đến nô lệ, đối xử vô nhân đạo hay hạ thấp nhân phẩm con người. Chatbot Claude cũng được thiết lập để tránh các câu trả lời bị coi là xúc phạm đến bất kỳ truyền thống hay nền văn hóa nào.
Trong một cuộc phỏng vấn, người đồng sáng lập Anthropic, ông Jack Clark cho biết “hiến pháp Claude” có thể được sửa đổi để cân bằng, vừa cung cấp các câu trả lời hữu ích và đáng tin cậy, vừa không gây khó chịu.
Ông dự đoán các giá trị AI “hợp hiến” như “hiến pháp Claude” sẽ sớm thu hút sự quan tâm của các chính trị gia trong các cuộc thảo luận trong tương lai về AI, vì các giá trị này có thể được viết ra một cách dễ dàng.
Anthropic là công ty công nghệ do các cựu giám đốc điều hành của OpenAI - “cha đẻ” của ChatGPT thành lập và được tập đoàn Alphabet đầu tư. Các nhà sáng lập Anthropic đang hướng tới việc tạo ra một hệ thống AI an toàn, không chứa các nội dung độc hại như cách chế tạo vũ khí hay sử dụng ngôn ngữ phân biệt chủng tộc.
Giới chức Mỹ ưu tiên xem xét về vấn đề an toàn khi nghiên cứu về cách kiểm soát AI. Tổng thống Mỹ Joe Biden cho rằng các công ty AI phải có nghĩa vụ đảm bảo hệ thống của họ an toàn trước khi giới thiệu với công chúng.
Người đồng sáng lập Anthropic, ông Dario Amodei là một trong số các giám đốc điều hành AI đã gặp Tổng thống Biden vào tuần trước để thảo luận về những nguy cơ tiềm ẩn của công nghệ này.