📖 Cấp độ: Intermediate ⏱️ Thời gian đọc: ~5 phút 📰 Chủ đề: AI / HR Technology
📰 Bài đọc (English)
A growing number of companies are using artificial intelligence to screen job candidates , but critics warn that these systems may perpetuate existing biases rather than eliminate them.
A recent study published by MIT researchers found that AI-powered recruitment tools trained on historical hiring data tended to discriminate against women and minorities . The algorithms were designed to identify top performers, but because past hiring decisions were made predominantly by humans with unconscious biases, the AI simply replicated those patterns.
If companies were required to audit their AI hiring tools regularly, many of these issues could be identified before they caused harm. New York City has already passed legislation mandating transparency in automated hiring decisions, and similar regulations are being proposed across the European Union.
Proponents argue that AI can actually reduce bias if it is calibrated correctly. Unlike human recruiters, algorithms do not get tired or have bad days. However, the accountability question remains: when an AI rejects a qualified candidate, who is responsible?
📚 Từ vựng chính
| English | IPA | Tiếng Việt | Loại từ |
|---|---|---|---|
| artificial intelligence | /ˌɑːrtɪˈfɪʃəl ɪnˈtelɪdʒəns/ | trí tuệ nhân tạo | noun |
| screen | /skriːn/ | sàng lọc | verb |
| candidates | /ˈkændɪdəts/ | ứng viên | noun |
| perpetuate | /pərˈpetʃueɪt/ | duy trì, kéo dài | verb |
| biases | /ˈbaɪəsɪz/ | sự thiên vị | noun |
| recruitment | /rɪˈkruːtmənt/ | tuyển dụng | noun |
| discriminate | /dɪˈskrɪmɪneɪt/ | phân biệt đối xử | verb |
| minorities | /maɪˈnɒrɪtiz/ | nhóm thiểu số | noun |
| replicated | /ˈreplɪkeɪtɪd/ | tái tạo, sao chép | verb |
| audit | /ˈɔːdɪt/ | kiểm toán, đánh giá | verb |
| transparency | /trænsˈpærənsi/ | sự minh bạch | noun |
| proposed | /prəˈpoʊzd/ | đề xuất | verb |
| calibrated | /ˈkælɪbreɪtɪd/ | hiệu chỉnh | verb |
| accountability | /əˌkaʊntəˈbɪlɪti/ | trách nhiệm giải trình | noun |
🇻🇳 Bản dịch tiếng Việt
Ngày càng nhiều công ty sử dụng trí tuệ nhân tạo để sàng lọc ứng viên, nhưng các nhà phê bình cảnh báo rằng những hệ thống này có thể duy trì các thiên vị hiện có thay vì loại bỏ chúng.
Một nghiên cứu gần đây được công bố bởi các nhà nghiên cứu MIT phát hiện rằng các công cụ tuyển dụng dựa trên AI, được huấn luyện trên dữ liệu tuyển dụng lịch sử, có xu hướng phân biệt đối xử với phụ nữ và các nhóm thiểu số. Các thuật toán được thiết kế để xác định những người có hiệu suất cao nhất, nhưng vì các quyết định tuyển dụng trong quá khứ chủ yếu do con người với thiên vị vô thức đưa ra, AI đơn giản là tái tạo lại những mẫu hình đó.
Nếu các công ty được yêu cầu kiểm toán các công cụ tuyển dụng AI của mình thường xuyên, nhiều vấn đề trong số này có thể được phát hiện trước khi gây ra tác hại. Thành phố New York đã thông qua luật yêu cầu minh bạch trong các quyết định tuyển dụng tự động, và các quy định tương tự đang được đề xuất trên toàn Liên minh châu Âu.
Những người ủng hộ cho rằng AI thực sự có thể giảm thiên vị nếu được hiệu chỉnh đúng cách. Không giống người tuyển dụng, thuật toán không mệt mỏi hay có ngày tồi tệ. Tuy nhiên, câu hỏi về trách nhiệm giải trình vẫn còn: khi AI từ chối một ứng viên đủ điều kiện, ai là người chịu trách nhiệm?
📝 Phân tích ngữ pháp
Câu 1: “A growing number of companies are using artificial intelligence to screen job candidates, but critics warn that these systems may perpetuate existing biases rather than eliminate them.”
- Cấu trúc: S + are V-ing + O, but S + warn that + S + may + V + O + rather than + V + O
- Ngữ pháp: Câu ghép với liên từ “but”; cấu trúc “rather than” để so sánh đối lập; “may” diễn tả khả năng
- Ví dụ tương tự: Many startups are adopting cloud services, but experts warn that this may increase security risks rather than reduce them.
Câu 2: “The algorithms were designed to identify top performers, but because past hiring decisions were made predominantly by humans with unconscious biases, the AI simply replicated those patterns.”
- Cấu trúc: S + were designed to + V (passive), but because + S + were made + by + agent, S + V-ed + O
- Ngữ pháp: Câu bị động (Passive Voice) kết hợp mệnh đề nguyên nhân “because”; hai lần passive trong cùng câu
- Ví dụ tương tự: The model was trained to detect fraud, but because the training data was collected from biased sources, it missed many cases.
Câu 3: “If companies were required to audit their AI hiring tools regularly, many of these issues could be identified before they caused harm.”
- Cấu trúc: If + S + were + V-ed (past subjunctive), S + could + be + V-ed
- Ngữ pháp: Câu điều kiện loại 2 (Second Conditional) — giả định không thực tế ở hiện tại; “could be identified” là bị động trong mệnh đề chính
- Ví dụ tương tự: If developers were given more time to test, many bugs could be caught before release.
Câu 4: “Unlike human recruiters, algorithms do not get tired or have bad days.”
- Cấu trúc: Unlike + N, S + do not + V + or + V
- Ngữ pháp: Cấu trúc so sánh đối lập “Unlike”; phủ định kép với “or” (không… cũng không)
- Ví dụ tương tự: Unlike traditional databases, NoSQL systems do not require fixed schemas or predefined relationships.
✏️ Bài tập
Comprehension (Đọc hiểu)
- What did the MIT study find about AI recruitment tools?
- Why did the AI algorithms replicate human biases?
- What has New York City done regarding automated hiring decisions?
Vocabulary (Từ vựng)
Điền từ thích hợp:
- Companies must ___ their AI systems regularly to ensure fairness.
- The algorithm was found to ___ against older applicants.
- New regulations require greater ___ in how AI makes decisions.
- Historical data can ___ existing inequalities if not handled carefully.
✅ Đáp án
Comprehension:
- The MIT study found that AI recruitment tools trained on historical data tended to discriminate against women and minorities.
- Because past hiring decisions were made by humans with unconscious biases, the AI learned and replicated those same patterns.
- New York City has passed legislation mandating transparency in automated hiring decisions.
Vocabulary:
- audit — kiểm toán, đánh giá hệ thống AI
- discriminate — phân biệt đối xử
- transparency — sự minh bạch
- perpetuate — duy trì, kéo dài