Thứ 7, 23/11/2024, 23:55[GMT+7]

Mối lo người đào tạo AI lại nhờ AI 'làm hộ'

Thứ 3, 27/06/2023 | 17:45:04
3,275 lượt xem
Được trả tiền để dán nhãn và tổng hợp dữ liệu cho AI, một số người lại dùng chính AI làm công việc này, gây nguy cơ lỗi chồng lỗi.

Phía sau các mô hình AI tạo sinh là đội ngũ lọc và dán nhãn dữ liệu. Ảnh: Business Insider

Đằng sau sự thành công của các mô hình AI tạo sinh như ChatGPT của OpenAI và Bard của Google có sự góp sức của "đội quân dán nhãn". Họ là những người chuyên phân loại, sắp xếp và gắn nhãn cho lượng dữ liệu khổng lồ, từ hình ảnh hộp sữa, tờ giấy cho đến con mèo hay xe hơi, để AI "học". Công việc này thô sơ nhưng đặc biệt quan trọng đối với bất cứ hệ thống AI nào. Họ thường đến từ các nước đang phát triển, làm việc theo ca với mức lương vài USD mỗi giờ.

OpenAI hay Google thường thuê đối tác bên thứ ba để đào tạo AI. Với lượng dữ liệu lớn, đội quân dán nhãn này cần thao tác nhanh, liên tục và chính xác. Tuy nhiên, một khảo sát gần đây cho thấy đội ngũ này đã âm thầm dùng các mô hình AI để đào tạo chính chúng.

Cụ thể, một nhóm chuyên gia từ Viện Công nghệ Liên bang Thụy Sĩ (EPFL) đã thuê 44 người trên nền tảng công việc tự do Mechanical Turk của Amazon tóm tắt 16 đoạn trích từ các tài liệu y học và dán nhãn phân loại chúng. EPFL sau đó thực hiện công việc tương tự qua công cụ AI như ChatGPT để so sánh hiệu quả của cả hai. Bên cạnh đó, nhóm cũng trích xuất số lần gõ phím của nhân công được thuê nhằm phân tích họ có sao chép các câu trả lời hay không.

EPFL sau đó kết luận 33-46% số nhân công đã sử dụng AI như ChatGPT để hoàn thành công việc. Theo EPFL, nghiên cứu cho thấy xu hướng sử dụng mô hình AI để đào tạo chính chúng. "Điều đó không khiến các nền tảng và dịch vụ đào tạo AI sẽ kết thúc. Nhưng nó đang thay đổi cách làm", phó giáo sư Robert West, đại diện nhóm nghiên cứu của EPFL, nhận xét.

Tuy nhiên, giới chuyên gia lo ngại việc sử dụng AI để đào tạo AI có thể khiến các mô hình lỗi càng thêm lỗi vì chúng vốn đang gặp các vấn đề nghiêm trọng, chẳng hạn các câu trả lời sai hoặc bịa đặt nội dung. Ilia Shumailov, nhà nghiên cứu trí tuệ nhân tạo và máy tính tại Đại học Oxford, cho rằng nếu người huấn luyện AI tạo đầu ra không chính xác, sau đó dùng dữ liệu này để đào tạo các mô hình khác sẽ kéo theo toàn bộ chuỗi bị sai.

"Theo thời gian, việc xác định dữ liệu sai sẽ vô cùng khó khăn, thậm chí không có cách nào làm điều đó. Mọi thứ không còn đơn giản và khó có thể khắc phục được", Shumailov cho biết.

Các công cụ như ChatGPT hiện được ứng dụng rộng khắp, trong đó có những lĩnh vực cần đòi hỏi tính chính xác cao như y tế, giáo dục. Theo Technology Review, nếu áp dụng kết quả sai từ AI, hậu quả có thể rất khó lường.

"Tôi không nghĩ mọi thứ sẽ sụp đổ", ông West nói. "Tuy nhiên, tôi nghĩ cộng đồng AI cần xem lại một cách chặt chẽ nhiệm vụ nào có khả năng tự động hóa trong huấn luyện AI và những thứ nào nên ngăn chặn".

Theo vnexpress.net