1. Attention Mechanism (Cơ chế chú ý) trong Transformers giúp cải thiện mô hình NLP bằng cách:
A. Giảm độ phức tạp tính toán của mô hình.
B. Cho phép mô hình tập trung vào các phần quan trọng nhất của đầu vào khi xử lý, thay vì xử lý tuần tự toàn bộ.
C. Tăng cường khả năng xử lý song song.
D. Cải thiện khả năng dịch thuật đa ngôn ngữ.
2. Công đoạn nào sau đây KHÔNG thuộc quy trình xử lý ngôn ngữ tự nhiên điển hình?
A. Phân tích cú pháp (Parsing).
B. Phân tích ngữ nghĩa (Semantic Analysis).
C. Phân tích hình ảnh (Image Analysis).
D. Phân tích hình thái học (Morphological Analysis).
3. Tokenization trong NLP là quá trình:
A. Chuyển đổi văn bản thành giọng nói.
B. Chia văn bản thành các đơn vị nhỏ hơn, chẳng hạn như từ hoặc cụm từ.
C. Loại bỏ các từ dừng (stop words) khỏi văn bản.
D. Gán nhãn từ loại (POS tagging) cho mỗi từ trong văn bản.
4. Word Embedding (ví dụ Word2Vec, GloVe) giúp cải thiện hiệu suất NLP bằng cách:
A. Tăng tốc độ xử lý văn bản.
B. Biểu diễn từ ngữ thành các vector số học, nắm bắt được ý nghĩa ngữ nghĩa và mối quan hệ giữa các từ.
C. Giảm kích thước bộ nhớ lưu trữ văn bản.
D. Tự động sửa lỗi chính tả trong văn bản.
5. Precision và Recall là các độ đo đánh giá hiệu suất trong NLP, đặc biệt trong các tác vụ như phân loại văn bản hay NER. Precision đo lường:
A. Tỷ lệ các trường hợp thực tế là tích cực mà mô hình dự đoán đúng là tích cực.
B. Tỷ lệ các trường hợp mô hình dự đoán là tích cực mà thực sự là tích cực.
C. Tỷ lệ tổng số trường hợp dự đoán đúng trên tổng số trường hợp.
D. Mức độ bao phủ của mô hình trên dữ liệu kiểm tra.
6. Tại sao việc xử lý ngôn ngữ tự nhiên cho các ngôn ngữ ít tài nguyên (low-resource languages) lại gặp nhiều thách thức?
A. Các ngôn ngữ ít tài nguyên thường có cấu trúc ngữ pháp phức tạp hơn.
B. Thiếu dữ liệu huấn luyện có nhãn và các công cụ NLP được phát triển sẵn cho các ngôn ngữ này.
C. Người dùng các ngôn ngữ ít tài nguyên thường ít sử dụng internet.
D. Các ngôn ngữ ít tài nguyên không có bảng chữ cái.
7. Contextual word embeddings (biểu diễn từ theo ngữ cảnh) như BERT khác biệt so với word embeddings tĩnh (ví dụ Word2Vec) như thế nào?
A. Contextual word embeddings có kích thước vector nhỏ hơn.
B. Contextual word embeddings tạo ra biểu diễn vector khác nhau cho cùng một từ tùy thuộc vào ngữ cảnh sử dụng của nó trong câu, trong khi word embeddings tĩnh luôn cho ra một vector duy nhất cho mỗi từ.
C. Word embeddings tĩnh có thể nắm bắt ngữ cảnh tốt hơn.
D. Contextual word embeddings dễ huấn luyện hơn.
8. Recall (Độ phủ) đo lường:
A. Tỷ lệ các trường hợp mô hình dự đoán là tích cực mà thực sự là tích cực.
B. Tỷ lệ các trường hợp thực tế là tích cực mà mô hình dự đoán đúng là tích cực.
C. Tỷ lệ tổng số trường hợp dự đoán đúng trên tổng số trường hợp.
D. Mức độ chính xác của mô hình trên dữ liệu huấn luyện.
9. Interpretability (khả năng diễn giải) của mô hình NLP là gì và tại sao nó quan trọng?
A. Khả năng mô hình xử lý ngôn ngữ tự nhiên một cách nhanh chóng.
B. Khả năng hiểu được cách mô hình NLP đưa ra quyết định hoặc dự đoán, giúp tin tưởng và cải thiện mô hình.
C. Khả năng mô hình dịch văn bản sang nhiều ngôn ngữ khác nhau.
D. Khả năng mô hình tự động sửa lỗi chính tả trong văn bản.
10. Fine-tuning (tinh chỉnh) mô hình ngôn ngữ pre-trained là quá trình:
A. Huấn luyện lại toàn bộ mô hình từ đầu trên dữ liệu của tác vụ cụ thể.
B. Tiếp tục huấn luyện mô hình pre-trained trên một tập dữ liệu nhỏ hơn, đặc trưng cho tác vụ cụ thể, để mô hình thích nghi tốt hơn với tác vụ đó.
C. Giảm kích thước mô hình pre-trained để tăng tốc độ suy luận.
D. Thay đổi kiến trúc mạng nơ-ron của mô hình pre-trained.
11. Stemming và Lemmatization là các kỹ thuật tiền xử lý NLP nhằm mục đích:
A. Loại bỏ các từ dừng.
B. Chuẩn hóa từ ngữ về dạng gốc của chúng.
C. Phân tích cú pháp câu.
D. Phát hiện ngôn ngữ của văn bản.
12. Xử lý ngôn ngữ tự nhiên (NLP) là lĩnh vực khoa học máy tính tập trung vào:
A. Phát triển phần cứng máy tính mạnh mẽ hơn.
B. Xây dựng các thuật toán để máy tính có thể hiểu và xử lý ngôn ngữ con người.
C. Tạo ra các giao diện người dùng đồ họa phức tạp.
D. Nghiên cứu về tâm lý học ngôn ngữ.
13. Khái niệm `Overfitting` (quá khớp) trong NLP (và machine learning nói chung) đề cập đến tình trạng:
A. Mô hình học quá tốt trên dữ liệu huấn luyện nhưng kém hiệu quả trên dữ liệu mới (dữ liệu kiểm tra).
B. Mô hình không học được gì từ dữ liệu huấn luyện.
C. Mô hình xử lý dữ liệu quá chậm.
D. Mô hình yêu cầu quá nhiều bộ nhớ để hoạt động.
14. Recurrent Neural Networks (RNNs) thường được sử dụng trong NLP cho các tác vụ xử lý dữ liệu tuần tự vì:
A. Khả năng xử lý song song nhanh chóng.
B. Khả năng ghi nhớ thông tin từ các bước thời gian trước đó, phù hợp với tính tuần tự của ngôn ngữ.
C. Cấu trúc đơn giản và dễ huấn luyện.
D. Hiệu quả trong việc xử lý dữ liệu phi cấu trúc.
15. Ứng dụng nào sau đây KHÔNG phải là ứng dụng phổ biến của NLP?
A. Dịch máy (Machine Translation).
B. Nhận dạng khuôn mặt (Facial Recognition).
C. Phân tích cảm xúc (Sentiment Analysis).
D. Trợ lý ảo (Chatbots/Virtual Assistants).
16. Vấn đề `ambiguity` (mơ hồ) trong ngôn ngữ tự nhiên gây khó khăn cho NLP như thế nào?
A. Làm tăng kích thước dữ liệu cần xử lý.
B. Một từ hoặc cụm từ có thể có nhiều nghĩa khác nhau tùy thuộc vào ngữ cảnh, khiến máy tính khó xác định đúng ý nghĩa.
C. Giảm tốc độ xử lý của các mô hình NLP.
D. Yêu cầu các mô hình NLP phải có độ chính xác tuyệt đối.
17. Ethical considerations (cân nhắc về đạo đức) trong NLP ngày càng trở nên quan trọng, ví dụ nào sau đây KHÔNG phải là một vấn đề đạo đức liên quan đến NLP?
A. Mô hình NLP có thể khuếch đại hoặc tạo ra các định kiến (bias) giới tính, chủng tộc, v.v. từ dữ liệu huấn luyện, dẫn đến kết quả phân biệt đối xử.
B. Việc sử dụng NLP để tạo ra tin giả (fake news) hoặc nội dung độc hại.
C. Mô hình NLP đôi khi đưa ra kết quả không chính xác.
D. Sự riêng tư dữ liệu khi thu thập và sử dụng văn bản cá nhân cho huấn luyện mô hình.
18. Zero-shot learning trong NLP là khả năng của mô hình:
A. Học từ dữ liệu không có nhãn.
B. Thực hiện tốt các tác vụ mà nó chưa từng được huấn luyện trực tiếp, bằng cách khái quát hóa từ các tác vụ liên quan.
C. Huấn luyện mô hình với lượng dữ liệu rất nhỏ.
D. Tự động sửa lỗi chính tả trong văn bản đầu vào.
19. Sự khác biệt chính giữa Stemming và Lemmatization là gì?
A. Stemming nhanh hơn nhưng kém chính xác hơn Lemmatization, vì Stemming chỉ cắt bỏ hậu tố từ một cách đơn giản, còn Lemmatization đưa từ về dạng từ điển có nghĩa.
B. Lemmatization nhanh hơn Stemming.
C. Stemming sử dụng từ điển, còn Lemmatization thì không.
D. Stemming chỉ áp dụng cho tiếng Anh, còn Lemmatization áp dụng cho nhiều ngôn ngữ.
20. Stop words (từ dừng) là gì và tại sao chúng thường được loại bỏ trong tiền xử lý NLP?
A. Các từ có tần suất xuất hiện thấp trong văn bản và ít quan trọng về mặt ngữ nghĩa.
B. Các từ phổ biến như `the`, `a`, `is`, thường ít mang thông tin ngữ nghĩa quan trọng cho nhiều tác vụ và có thể gây nhiễu.
C. Các từ mang cảm xúc tiêu cực cần được loại bỏ để cải thiện phân tích cảm xúc.
D. Các từ viết tắt cần được mở rộng để chuẩn hóa văn bản.
21. Nhiệm vụ `Named Entity Recognition` (NER) trong NLP nhằm mục đích:
A. Phân loại cảm xúc của văn bản (tích cực, tiêu cực, trung lập).
B. Dịch văn bản từ ngôn ngữ này sang ngôn ngữ khác.
C. Xác định và phân loại các thực thể có tên trong văn bản, như tên người, tổ chức, địa điểm.
D. Tóm tắt nội dung chính của văn bản.
22. Transformer models (ví dụ BERT, GPT) vượt trội hơn RNNs trong nhiều tác vụ NLP nhờ ưu điểm chính nào?
A. Khả năng xử lý dữ liệu tuần tự tốt hơn.
B. Khả năng xử lý song song và cơ chế chú ý mạnh mẽ, giúp học được các phụ thuộc xa trong văn bản hiệu quả hơn.
C. Yêu cầu ít dữ liệu huấn luyện hơn.
D. Khả năng diễn giải kết quả tốt hơn.
23. Mô hình ngôn ngữ (Language Model) được sử dụng trong NLP để:
A. Phân tích cú pháp câu.
B. Dự đoán từ hoặc chuỗi từ tiếp theo có khả năng xuất hiện trong một ngữ cảnh nhất định.
C. Tìm kiếm thông tin trong văn bản.
D. Chuyển đổi văn bản thành chữ viết tay.
24. Few-shot learning trong NLP khác với zero-shot learning như thế nào?
A. Few-shot learning yêu cầu nhiều dữ liệu huấn luyện hơn zero-shot learning.
B. Few-shot learning cho phép mô hình học từ một số ít ví dụ có nhãn cho tác vụ mới, trong khi zero-shot learning không sử dụng bất kỳ ví dụ có nhãn nào cho tác vụ mới.
C. Zero-shot learning chỉ áp dụng cho các mô hình Transformer, còn few-shot learning thì không.
D. Few-shot learning tập trung vào tốc độ học, còn zero-shot learning tập trung vào độ chính xác.
25. ROUGE score (Recall-Oriented Understudy for Gisting Evaluation) thường được sử dụng để đánh giá hiệu suất của hệ thống nào trong NLP?
A. Hệ thống dịch máy.
B. Hệ thống nhận dạng giọng nói.
C. Hệ thống tóm tắt văn bản.
D. Hệ thống phân loại chủ đề văn bản.
26. Phương pháp `Bag of Words` trong NLP có nhược điểm chính nào?
A. Khó khăn trong việc xử lý văn bản dài.
B. Mất đi thông tin về thứ tự và cấu trúc ngữ pháp của từ trong câu.
C. Yêu cầu lượng lớn dữ liệu huấn luyện.
D. Không thể xử lý được các ngôn ngữ có cấu trúc phức tạp.
27. F1-score là gì và tại sao nó hữu ích trong đánh giá mô hình NLP?
A. Một độ đo đánh giá tốc độ xử lý của mô hình.
B. Trung bình điều hòa giữa Precision và Recall, cung cấp một đánh giá cân bằng hơn khi Precision và Recall có sự chênh lệch lớn.
C. Độ đo đánh giá khả năng khái quát hóa của mô hình.
D. Độ đo đánh giá lượng bộ nhớ mà mô hình sử dụng.
28. Backpropagation (Lan truyền ngược) là thuật toán quan trọng trong huấn luyện mạng nơ-ron sâu cho NLP, nó được sử dụng để:
A. Tăng tốc độ xử lý dữ liệu đầu vào.
B. Tính toán gradient của hàm mất mát theo các trọng số của mạng, từ đó cập nhật trọng số để giảm thiểu lỗi.
C. Trích xuất đặc trưng từ văn bản.
D. Phân loại văn bản thành các chủ đề khác nhau.
29. BLEU score (Bilingual Evaluation Understudy) thường được sử dụng để đánh giá hiệu suất của hệ thống nào trong NLP?
A. Hệ thống phân tích cảm xúc.
B. Hệ thống dịch máy.
C. Hệ thống tóm tắt văn bản.
D. Hệ thống trả lời câu hỏi.
30. Pre-training (huấn luyện trước) mô hình ngôn ngữ trên lượng lớn văn bản không nhãn mang lại lợi ích gì trong NLP?
A. Giảm kích thước mô hình.
B. Giúp mô hình học được biểu diễn ngôn ngữ chung, có thể được tinh chỉnh (fine-tune) cho nhiều tác vụ cụ thể với ít dữ liệu hơn.
C. Tăng tốc độ suy luận của mô hình.
D. Loại bỏ nhu cầu tinh chỉnh mô hình cho các tác vụ cụ thể.