Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên – Đề 9

0

Bạn đã sẵn sàng chưa? 45 phút làm bài bắt đầu!!!

Bạn đã hết giờ làm bài! Xem kết quả các câu hỏi đã làm nhé!!!


Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Đề 9 - Bài tập, đề thi trắc nghiệm online Xử lý ngôn ngữ tự nhiên

1. Active learning trong NLP là phương pháp gì?

A. Phương pháp huấn luyện mô hình NLP trên dữ liệu được tạo ra một cách tự động.
B. Phương pháp mà mô hình NLP chủ động lựa chọn các mẫu dữ liệu `hữu ích` nhất để con người gán nhãn, nhằm tối ưu hóa hiệu quả huấn luyện với ít dữ liệu có nhãn.
C. Phương pháp huấn luyện mô hình NLP liên tục học hỏi từ tương tác với người dùng.
D. Phương pháp huấn luyện mô hình NLP song song trên nhiều bộ dữ liệu khác nhau.

2. Tokenization trong NLP là quá trình gì?

A. Chuyển đổi văn bản thành giọng nói.
B. Chia văn bản thành các đơn vị nhỏ hơn, ví dụ như từ, cụm từ hoặc câu.
C. Loại bỏ các từ dừng (stop words) khỏi văn bản.
D. Gán nhãn từ loại (Part-of-Speech tagging) cho mỗi từ trong văn bản.

3. Ứng dụng nào sau đây KHÔNG phải là ứng dụng phổ biến của NLP?

A. Dịch máy (Machine Translation).
B. Nhận dạng khuôn mặt (Facial Recognition).
C. Phân tích cảm xúc (Sentiment Analysis).
D. Chatbot và trợ lý ảo (Chatbots and Virtual Assistants).

4. Few-shot learning khác biệt với zero-shot learning trong NLP như thế nào?

A. Few-shot learning yêu cầu dữ liệu huấn luyện lớn hơn zero-shot learning.
B. Few-shot learning cho phép mô hình học từ một lượng nhỏ ví dụ có nhãn cho một tác vụ mới, trong khi zero-shot learning không sử dụng ví dụ có nhãn nào.
C. Few-shot learning chỉ áp dụng cho phân loại văn bản, còn zero-shot learning áp dụng cho dịch máy.
D. Few-shot learning sử dụng mô hình đơn giản hơn zero-shot learning.

5. Ontology trong ngữ cảnh NLP và biểu đồ tri thức là gì?

A. Một loại mô hình ngôn ngữ đặc biệt.
B. Một sự mô tả chính thức về các khái niệm và mối quan hệ giữa chúng trong một lĩnh vực tri thức cụ thể, đóng vai trò là khung sườn cho biểu đồ tri thức.
C. Một thuật toán để phân tích cú pháp văn bản.
D. Một phương pháp đánh giá mô hình NLP.

6. Ensemble methods (phương pháp kết hợp mô hình) có thể được áp dụng trong NLP như thế nào?

A. Chỉ áp dụng cho phân loại hình ảnh, không hiệu quả trong NLP.
B. Kết hợp dự đoán của nhiều mô hình NLP khác nhau (ví dụ: các mô hình được huấn luyện với kiến trúc khác nhau hoặc trên dữ liệu khác nhau) để cải thiện độ chính xác và độ tin cậy.
C. Kết hợp nhiều ngôn ngữ khác nhau trong quá trình xử lý.
D. Kết hợp dữ liệu văn bản và dữ liệu hình ảnh để tạo ra mô hình đa phương thức.

7. Zero-shot learning trong NLP là gì?

A. Huấn luyện mô hình NLP trên dữ liệu không có nhãn.
B. Khả năng của mô hình NLP để thực hiện các tác vụ hoặc nhận biết các lớp mà nó chưa từng được huấn luyện trực tiếp.
C. Huấn luyện mô hình NLP với kích thước dữ liệu huấn luyện bằng không.
D. Phương pháp giảm thiểu lỗi sai sót trong quá trình huấn luyện mô hình NLP.

8. TF-IDF là viết tắt của thuật ngữ nào và nó được sử dụng để làm gì trong NLP?

A. Term Frequency - Inverse Document Frequency; đo lường tầm quan trọng của từ trong một văn bản so với tập hợp văn bản.
B. Text Filtering - Information Dissemination Function; lọc thông tin không liên quan trong văn bản.
C. Topic Frequency - Iterative Document Filtering; xác định chủ đề chính của văn bản.
D. Tokenization and Feature - Independent Data Format; định dạng dữ liệu chuẩn cho token và đặc trưng.

9. Đánh giá mô hình dịch máy thường sử dụng độ đo BLEU. BLEU đo lường yếu tố nào?

A. Độ trôi chảy của bản dịch.
B. Độ chính xác ngữ pháp của bản dịch.
C. Mức độ tương đồng giữa bản dịch máy và bản dịch tham khảo của con người.
D. Tốc độ dịch của mô hình.

10. Coreference resolution (giải quyết đồng tham chiếu) trong NLP nhằm mục đích gì?

A. Dịch các cụm từ đồng nghĩa sang ngôn ngữ khác.
B. Xác định các biểu thức ngôn ngữ khác nhau (ví dụ: đại từ, danh từ chung) cùng tham chiếu đến một thực thể trong văn bản.
C. Giải quyết các câu hỏi tham khảo trong văn bản.
D. Phân tích cấu trúc tham chiếu của văn bản.

11. BERT (Bidirectional Encoder Representations from Transformers) là một ví dụ của mô hình nào trong NLP?

A. Mô hình sinh văn bản (Text generation model).
B. Mô hình ngôn ngữ pre-trained (Pre-trained language model).
C. Mô hình phân loại hình ảnh (Image classification model).
D. Mô hình phát hiện đối tượng (Object detection model).

12. Word Sense Disambiguation (WSD) là bài toán NLP liên quan đến việc gì?

A. Phân biệt các ngôn ngữ khác nhau.
B. Xác định nghĩa chính xác của một từ trong ngữ cảnh cụ thể khi từ đó có nhiều nghĩa.
C. Phân biệt các loại từ (danh từ, động từ, tính từ).
D. Phân biệt văn bản thật và văn bản giả.

13. Nguyên tắc `DRY` (`Don`t Repeat Yourself`) có ý nghĩa gì trong ngữ cảnh phát triển các mô hình NLP?

A. Huấn luyện mô hình trên nhiều loại dữ liệu khác nhau để tăng tính tổng quát.
B. Tái sử dụng các thành phần, module hoặc mã nguồn đã được phát triển để tránh lặp lại công việc.
C. Giảm thiểu số lượng tham số trong mô hình để tránh overfitting.
D. Đảm bảo dữ liệu huấn luyện đa dạng và phong phú.

14. Khái niệm `context window` (cửa sổ ngữ cảnh) quan trọng như thế nào trong mô hình ngôn ngữ Transformer?

A. Không quan trọng, vì Transformer xử lý toàn bộ văn bản cùng một lúc.
B. Rất quan trọng, nó xác định số lượng từ xung quanh mỗi từ mà mô hình xem xét khi xử lý, ảnh hưởng đến khả năng nắm bắt ngữ cảnh.
C. Chỉ quan trọng trong giai đoạn tiền xử lý dữ liệu, không ảnh hưởng đến mô hình Transformer.
D. Chỉ quan trọng đối với các ngôn ngữ có cấu trúc ngữ pháp phức tạp.

15. Named Entity Recognition (NER) là tác vụ NLP nhằm mục đích gì?

A. Phân loại văn bản theo chủ đề.
B. Nhận diện và phân loại các thực thể có tên trong văn bản (ví dụ: tên người, tổ chức, địa điểm, thời gian).
C. Phân tích cảm xúc của văn bản.
D. Dịch văn bản từ ngôn ngữ này sang ngôn ngữ khác.

16. Transfer learning (học chuyển giao) mang lại lợi ích gì trong NLP?

A. Giảm kích thước mô hình NLP.
B. Cho phép sử dụng các mô hình ngôn ngữ pre-trained (đã được huấn luyện trước) trên một lượng lớn dữ liệu để nhanh chóng đạt được hiệu suất tốt cho các tác vụ NLP cụ thể với ít dữ liệu huấn luyện hơn.
C. Tăng tốc độ xử lý văn bản.
D. Cải thiện khả năng dịch máy.

17. Knowledge graph (biểu đồ tri thức) có thể được sử dụng trong NLP để làm gì?

A. Tạo ra văn bản tự động.
B. Lưu trữ và truy vấn thông tin có cấu trúc về các thực thể và mối quan hệ giữa chúng, hỗ trợ các tác vụ như trả lời câu hỏi, suy luận ngữ nghĩa.
C. Phân tích cảm xúc của văn bản.
D. Dịch văn bản theo thời gian thực.

18. Attention mechanism (cơ chế chú ý) trong mô hình Transformer giúp cải thiện điều gì so với RNNs trong NLP?

A. Khả năng xử lý ngôn ngữ hình ảnh.
B. Khả năng xử lý các phụ thuộc xa trong câu văn và song song hóa quá trình tính toán.
C. Khả năng xử lý dữ liệu dạng bảng biểu.
D. Khả năng giảm thiểu overfitting trong mô hình.

19. Explainable AI (XAI) trong NLP có vai trò gì?

A. Tăng cường khả năng sáng tạo của mô hình NLP.
B. Giúp con người hiểu được cách mô hình NLP đưa ra quyết định và dự đoán, tăng tính minh bạch và tin cậy của mô hình.
C. Giảm chi phí tính toán khi huấn luyện mô hình NLP.
D. Tự động sửa lỗi trong mã nguồn của mô hình NLP.

20. Công đoạn nào sau đây KHÔNG thuộc quy trình xử lý ngôn ngữ tự nhiên điển hình?

A. Phân tích cú pháp (Parsing).
B. Phân tích ngữ nghĩa (Semantic Analysis).
C. Biên dịch mã nguồn (Source Code Compilation).
D. Phân tích hình thái học (Morphological Analysis).

21. Adversarial attacks (tấn công đối nghịch) trong NLP có thể gây ra hậu quả gì?

A. Cải thiện độ chính xác của mô hình NLP.
B. Làm cho mô hình NLP đưa ra dự đoán sai lệch hoặc không mong muốn do các thay đổi nhỏ, khó nhận thấy trong dữ liệu đầu vào.
C. Tăng tốc độ huấn luyện mô hình NLP.
D. Giảm kích thước mô hình NLP.

22. Stemming và Lemmatization là hai kỹ thuật chuẩn hóa văn bản trong NLP. Sự khác biệt chính giữa chúng là gì?

A. Stemming loại bỏ stop words, còn Lemmatization thì không.
B. Stemming giảm từ về dạng gốc (stem) bằng cách cắt bỏ hậu tố, có thể tạo ra từ không có nghĩa; Lemmatization đưa từ về dạng từ điển (lemma) có nghĩa.
C. Stemming chỉ áp dụng cho tiếng Anh, Lemmatization áp dụng cho nhiều ngôn ngữ.
D. Stemming sử dụng từ điển, Lemmatization thì không.

23. Beam search là thuật toán được sử dụng trong NLP để làm gì?

A. Tìm kiếm thông tin trên web.
B. Giải mã đầu ra của các mô hình sinh chuỗi (sequence generation models) như dịch máy hoặc sinh văn bản, bằng cách duy trì nhiều giả thuyết đầu ra tiềm năng (beams).
C. Tìm kiếm từ đồng nghĩa trong từ điển.
D. Tìm kiếm lỗi chính tả trong văn bản.

24. Word embedding (ví dụ: Word2Vec, GloVe) giúp giải quyết vấn đề gì so với phương pháp `Bag of Words`?

A. Giảm kích thước dữ liệu văn bản.
B. Nắm bắt được ngữ nghĩa và mối quan hệ giữa các từ.
C. Tăng tốc độ xử lý văn bản.
D. Cải thiện độ chính xác của việc phân loại văn bản.

25. Phương pháp `Bag of Words` trong NLP bỏ qua yếu tố nào của ngôn ngữ?

A. Ngữ nghĩa của từ.
B. Thứ tự của từ trong câu.
C. Tần suất xuất hiện của từ.
D. Loại từ (danh từ, động từ, ...).

26. Paraphrase detection (phát hiện diễn giải lại) là tác vụ NLP nhằm xác định điều gì?

A. Văn bản có chứa đạo văn hay không.
B. Hai đoạn văn bản có ý nghĩa tương tự nhau mặc dù diễn đạt khác nhau hay không.
C. Văn bản có chứa thông tin sai lệch hay không.
D. Văn bản có được viết một cách trôi chảy và dễ hiểu hay không.

27. Data augmentation (tăng cường dữ liệu) trong NLP có thể thực hiện bằng cách nào?

A. Tạo ra dữ liệu văn bản hoàn toàn mới từ đầu.
B. Áp dụng các phép biến đổi nhỏ lên dữ liệu văn bản hiện có (ví dụ: thay thế từ đồng nghĩa, chèn/xóa từ, xáo trộn thứ tự từ) để tạo ra các mẫu dữ liệu mới, đa dạng hơn.
C. Sử dụng dữ liệu từ các ngôn ngữ khác nhau.
D. Giảm kích thước dữ liệu huấn luyện để tránh overfitting.

28. Trong NLP, `stop words` thường được loại bỏ để làm gì?

A. Tăng cường ngữ nghĩa của văn bản.
B. Giảm kích thước dữ liệu và tập trung vào các từ khóa quan trọng.
C. Cải thiện độ chính xác của việc nhận dạng thực thể có tên (Named Entity Recognition).
D. Đảm bảo tính đa dạng của từ vựng trong văn bản.

29. Mục tiêu chính của Xử lý ngôn ngữ tự nhiên (NLP) là gì?

A. Tạo ra các chương trình máy tính có thể dịch ngôn ngữ lập trình này sang ngôn ngữ lập trình khác.
B. Phát triển các hệ thống máy tính có thể hiểu, diễn giải và tạo ra ngôn ngữ của con người một cách có giá trị và mạch lạc.
C. Xây dựng cơ sở dữ liệu ngôn ngữ học lớn nhất thế giới.
D. Nghiên cứu về nguồn gốc và sự phát triển của các ngôn ngữ tự nhiên.

30. Recurrent Neural Networks (RNNs) đặc biệt phù hợp cho các tác vụ NLP nào?

A. Phân loại hình ảnh.
B. Xử lý dữ liệu dạng chuỗi tuần tự như văn bản và giọng nói.
C. Phát hiện gian lận trong giao dịch tài chính.
D. Dự báo thời tiết.

1 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

1. Active learning trong NLP là phương pháp gì?

2 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

2. Tokenization trong NLP là quá trình gì?

3 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

3. Ứng dụng nào sau đây KHÔNG phải là ứng dụng phổ biến của NLP?

4 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

4. Few-shot learning khác biệt với zero-shot learning trong NLP như thế nào?

5 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

5. Ontology trong ngữ cảnh NLP và biểu đồ tri thức là gì?

6 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

6. Ensemble methods (phương pháp kết hợp mô hình) có thể được áp dụng trong NLP như thế nào?

7 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

7. Zero-shot learning trong NLP là gì?

8 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

8. TF-IDF là viết tắt của thuật ngữ nào và nó được sử dụng để làm gì trong NLP?

9 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

9. Đánh giá mô hình dịch máy thường sử dụng độ đo BLEU. BLEU đo lường yếu tố nào?

10 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

10. Coreference resolution (giải quyết đồng tham chiếu) trong NLP nhằm mục đích gì?

11 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

11. BERT (Bidirectional Encoder Representations from Transformers) là một ví dụ của mô hình nào trong NLP?

12 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

12. Word Sense Disambiguation (WSD) là bài toán NLP liên quan đến việc gì?

13 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

13. Nguyên tắc 'DRY' ('Don't Repeat Yourself') có ý nghĩa gì trong ngữ cảnh phát triển các mô hình NLP?

14 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

14. Khái niệm 'context window' (cửa sổ ngữ cảnh) quan trọng như thế nào trong mô hình ngôn ngữ Transformer?

15 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

15. Named Entity Recognition (NER) là tác vụ NLP nhằm mục đích gì?

16 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

16. Transfer learning (học chuyển giao) mang lại lợi ích gì trong NLP?

17 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

17. Knowledge graph (biểu đồ tri thức) có thể được sử dụng trong NLP để làm gì?

18 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

18. Attention mechanism (cơ chế chú ý) trong mô hình Transformer giúp cải thiện điều gì so với RNNs trong NLP?

19 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

19. Explainable AI (XAI) trong NLP có vai trò gì?

20 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

20. Công đoạn nào sau đây KHÔNG thuộc quy trình xử lý ngôn ngữ tự nhiên điển hình?

21 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

21. Adversarial attacks (tấn công đối nghịch) trong NLP có thể gây ra hậu quả gì?

22 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

22. Stemming và Lemmatization là hai kỹ thuật chuẩn hóa văn bản trong NLP. Sự khác biệt chính giữa chúng là gì?

23 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

23. Beam search là thuật toán được sử dụng trong NLP để làm gì?

24 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

24. Word embedding (ví dụ: Word2Vec, GloVe) giúp giải quyết vấn đề gì so với phương pháp 'Bag of Words'?

25 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

25. Phương pháp 'Bag of Words' trong NLP bỏ qua yếu tố nào của ngôn ngữ?

26 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

26. Paraphrase detection (phát hiện diễn giải lại) là tác vụ NLP nhằm xác định điều gì?

27 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

27. Data augmentation (tăng cường dữ liệu) trong NLP có thể thực hiện bằng cách nào?

28 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

28. Trong NLP, 'stop words' thường được loại bỏ để làm gì?

29 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

29. Mục tiêu chính của Xử lý ngôn ngữ tự nhiên (NLP) là gì?

30 / 30

Category: Đề thi, bài tập trắc nghiệm online Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

30. Recurrent Neural Networks (RNNs) đặc biệt phù hợp cho các tác vụ NLP nào?