Hãy cùng Ieltsity tham khảo đáp án đề bài Cambridge IELTS 18 – Test 2 – Passage 2 – Living With Artificial Intelligence nhé!
ANSWER TABLE |
|
14. C | 21. NOT GIVEN |
15. A | 22. NO |
16. B | 23. YES |
17. D | 24. C |
18. C | 25. A |
19. D | 26. E |
20. YES |
Living with artificial intelligence
Powerful artificial intelligence (Ai) needs to be reliably aligned with human values, but does this mean AI will eventually have to
police those values?
This has been the decade of Al, with one astonishing feat after another. A chess-playing Al that can defeat not only all human chess players but also all previous human-programmed chess machines, after learning the game in just four hours? That’s yesterday’s news, what’s next? True, these prodigious accomplishments are all in so-called narrow Al, where machines perform highly specialised tasks. But many experts believe this restriction is very temporary. By mid-century, we may have artificial general intelligence (AGI) – machines that can achieve human-level performance on the full range of tasks that we ourselves can tackle. (Q14)
If so, there’s little reason to think it will stop there. Machines will be free of many of the physical constraints on human intelligence. (Q15) Our brains run at slow biochemical processing speeds on the power of a light bulb, and their size is restricted by the dimensions of the human birth canal. It is remarkable what they accomplish, given these handicaps. But they may be as far from the physical limits of thought as our eyes are from the incredibly powerful Webb Space Telescope.
Once machines are better than us at designing even smarter machines, progress towards these limits could accelerate. What would this mean for us? Could we ensure a safe and worthwhile coexistence with such machines? On the plus side, Al is already useful and profitable for many things, and super Al might be expected to be super useful and super profitable. But the more powerful Al becomes, the more important it will be to specify its goals with great care. Folklore is full of tales of people who ask for the wrong thing, with disastrous consequences – King Midas, for example, might have wished that everything he touched turned to gold, but didn’t really intend this to apply to his breakfast. (Q16)
So we need to create powerful Al machines that are ‘human-friendly’- that have goals reliably aligned with our own values. One thing that makes this task difficult is that we are far from reliably human-friendly ourselves. We do many terrible things to each other and to many other creatures with whom we share the planet. (Q17) If superintendent machines don’t do a lot better than us, we’ll be in deep trouble. We’ll have powerful new intelligence amplifying the dark sides of our own fallible natures.
For safety’s sake, then, we want the machines to be ethically as well as cognitively superhuman. We want them to aim for the moral high ground, not for the troughs in which many of us spend some of our time. Luckily they’ll be smart enough for the job. If there are routes to the moral high ground, they’ll be better than us at finding them and steering us in the right direction. (Q18)
However, there are two big problems with this utopian vision. One is how we get the machines started on the journey, the other is what it would mean to reach this destination. The ‘getting started’ problem is that we need to tell the machines what they’re looking for with sufficient clarity that we can be confident they will find it whatever ‘it’ actually turns out to be. This won’t be easy, given that we are tribal creatures and conflicted about the ideals ourselves. We often ignore the suffering of strangers, and even contribute to it, at least indirectly. How then, do we point machines in the direction of something better? (Q19)
As for the ‘destination’ problem, we might, by putting ourselves in the hands of these moral guides and gatekeepers, be sacrificing our own autonomy – an important part of what makes us human. Machines who are better than us at sticking to the moral high ground may be expected to discourage some of the lapses we presently take for granted. We might lose our freedom to discriminate in favour of our own communities, for example. (Q20)
Loss of freedom to behave badly isn’t always a bad thing, of course: denying ourselves the freedom to put children to work in factories, or to smoke in restaurants are signs of progress. But are we ready for ethical silicon police (Q21) limiting our options? They might be so good at doing it that we won’t notice them, but few of us are likely to welcome such a future. (Q22)
These issues might seem far-fetched, but they are to some extent already here. Al already has some input into how resources are used in our National Health Service (NHS) there in the UK, for example. (Q24) If it was given a greater role, it might do so much more efficiently than humans can manage, and act in the interests of taxpayers and those who use the health system. However, we’d be depriving some humans (e.g. senior doctors) of the control they presently enjoy. (Q25 + Q26) Since we’d want to ensure that people are treated equally and that policies are fair, the goals of Al would need to be specified correctly.
We have a new powerful technology to deal with- itself, literally, a new way of thinking. For our own safety, we need to point these new thinkers in the right direction and get them to act well for us. It is not yet clear whether this is possible, but if it is, it will require a cooperative spirit, and a willingness to set aside self-interest. (Q23)
Both general intelligence and moral reasoning are often thought to be uniquely human capacities. But safety seems to require that we think of them as a package: if we are to give general intelligence to machines, we’ll need to give them moral authority, too. And where exactly would that leave human beings? All the more reason to think about the destination now, and to be careful about what we wish for.
Questions 14-19
Choose the correct letter, A, B, C or D. Write the correct letter in boxes 14-19 on your answer sheet.
14. What point does the writer make about Al in the first paragraph?
A. It is difficult to predict how quickly Al will progress.
B. Much can be learned about the use of Al in chess machines.
C. The future is unlikely to see limitations on the capabilities of Al.
D. Experts disagree on which specialised tasks Al will be able to perform.
15. What is the writer doing in the second paragraph?
A. explaining why machines will be able to outperform humans
B. describing the characteristics that humans and machines share
C. giving information about the development of machine intelligence
D. indicating which aspects of humans are the most advanced
16. Why does the writer mention the story of King Midas?
A. to compare different visions of progress
B. to illustrate that poorly defined objectives can go wrong
C. to emphasise the need for cooperation
D. to point out the financial advantages of a course of action
17. What challenge does the writer refer to in the fourth paragraph?
A. encouraging humans to behave in a more principled way
B. deciding which values we want Al to share with us
C. creating a better world for all creatures on the planet
D. ensuring Al is more human-friendly than we are ourselves
18. What does the writer suggest about the future of Al in the fifth paragraph?
A. The safety of machines will become a key issue.
B. It is hard to know what impact machines will have on the world.
C. Machines will be superior to humans in certain respects.
D. Many humans will oppose machines having a wider role.
19. Which of the following best summarises the writer’s argument in the sixth paragraph?
A. More intelligent machines will result in greater abuses of power.
B. Machine learning will share very few features with human learning.
C. There are a limited number of people with the knowledge to program machines.
D. Human shortcomings will make creating the machines we need more difficult.
Questions 20-23
Do the following statements agree with the claims of the writer in Reading Passage 2? In boxes 20-23 on your answer sheet, write:
YES, if the statement agrees with the claims of the writer
NO, if the statement contradicts the claims of the writer
NOT GIVEN, if it is impossible to say what the writer thinks about this
20. Machines with the ability to make moral decisions may prevent us from promoting the interests of our communities.
21. Silicon police would need to exist in large numbers in order to be effective.
22. Many people are comfortable with the prospect of their independence being restricted by machines.
2.3 If we want to ensure that machines act in our best interests, we all need to work together.
Questions 24-26
Complete the summary using the list of phrases, A-F, below. Write the correct letter, A-F, in boxes 24-26 on your answer sheet.
Using Al in the UK health system
Al currently has a limited role in the way 24 _______________ are allocated in the health service. The positive aspect of Al having a bigger role is that it would be more efficient and lead to patient benefits.
However, such a change would result, for example, in certain 25 _______________ not having their current level of 26 _______________. It is therefore important that Al’s goals are appropriate so that discriminatory practices could be avoided.
A. medical practitioners B. specialised tasks C. available resources
D. reduced illness E. professional authority F. technology experts
EXPLANATIONS
Q14:
Từ khóa câu hỏi: What point does the writer make about Al in the first paragraph?
Đoạn chứa đáp án: That’s yesterday’s news, what’s next? True, these prodigious accomplishments are all in so-called narrow Al, where machines perform highly specialised tasks. But many experts believe this restriction is very temporary. By mid-century, we may have artificial general intelligence (AGI) – machines that can achieve human-level performance on the full range of tasks that we ourselves can tackle.
Giải thích: Việc máy tính hoàn thành một số tác vụ mang tính chuyên môn cao đã là câu chuyện của quá khứ. Nhưng các chuyên gia tin rằng sự hạn chế này sẽ không kéo dài. Cho đến giữa thế kỷ này, trí tuệ nhân tạo AGI sẽ có thể thay thế con người trong tất cả mọi tác vụ mà chúng ta thực hiện.
Ta hiểu rằng sẽ không có bất cứ rào cản nào cho sự phát triển về năng lực của AI trong tương lai.
Vậy đáp án là C.
Q15:
Từ khóa câu hỏi: What is the writer doing in the second paragraph?
Từ đồng nghĩa trong bài: If so, there’s little reason to think it will stop there. Machines will be free of many of the physical constraints on human intelligence.
Giải thích: Chẳng có lý do gì để nghĩ trí tuệ nhân tạo sẽ dừng lại. Máy móc sẽ không bị cản trở bởi bất cứ rào cản vật lý nào mà trí tuệ con người thường gặp phải.
Đây chính là lý do mà máy móc sẽ vượt trội so với con người.
Vậy đáp án là A.
Q16:
Từ khóa câu hỏi: Why does the writer mention the story of King Midas?
Từ đồng nghĩa trong bài: Folklore is full of tales of people who ask for the wrong thing, with disastrous consequences – King Midas, for example, might have wished that everything he touched turned to gold, but didn’t really intend this to apply to his breakfast.
Giải thích: Trong dân gian có đầy rẫy những câu chuyện về những kẻ đã khao khát một điều sai lầm và nhận kết cục đau thương – ví dụ, Vua Midas đúng là đã ước cho mọi thứ ông ta chạm vào biến thành vàng, nhưng hẳn là ông không hề muốn điều ước đó áp dụng cả với bữa sáng của mình.
Vì không có một mục tiêu đủ cụ thể và rõ ràng, vua Midas đã nhận kết cục tệ hại.
Vậy đáp án là B.
Q17:
Từ khóa câu hỏi: What challenges does the writer refer to in the fourth paragraph?
Từ đồng nghĩa trong bài: So we need to create powerful Al machines that are ‘human-friendly’- that have goals reliably aligned with our own values. One thing that makes this task difficult is that we are far from reliably human-friendly ourselves. We do many terrible things to each other and to many other creatures with whom we share the planet.
Giải thích: Chúng ta cần tạo ra những bộ máy với trí tuệ nhân tạo mà “thân thiện với con người” – tức là có những mục đích giống với những giá trị mà con người đề cao. Tuy nhiên đây sẽ là một nhiệm vụ khó khăn bởi vì chính con người cũng chẳng hề thân thiện với nhau. Chúng ta làm những điều tồi tệ với nhau và với rất nhiều sinh vật khác trên hành tinh này.
Khó khăn là đảm bảo AI cần phải thực sự thân thiện, cao thượng hơn chính loài người chúng ta.
Vậy đáp án là D.
Q18:
Từ khóa câu hỏi: What does the writer suggest about the future of Al in the fifth paragraph?
Từ đồng nghĩa trong bài: We want them to aim for the moral high ground, not for the troughs in which many of us spend some of our time. Luckily they’ll be smart enough for the job. If there are routes to the moral high ground, they’ll be better than us at finding them and steering us in the right direction.
Giải thích: Chúng ta muốn máy tính hướng tới những tiêu chuẩn đạo đức cao hơn, chứ không phải những việc nhỏ nhen mà rất nhiều trong số chúng ta vẫn bỏ thời gian ra làm. Thật may mắn là máy móc sẽ có đủ trí thông minh để làm điều đó. Nếu tồn tại con đường đến với quy chuẩn đạo đức cao, thì chắc chắn máy móc sẽ tìm ra tốt hơn chúng ta, và lái chúng ta theo hướng đúng đắn.
Rõ ràng máy móc vượt trội so với con người về khả năng tìm kiếm các tiêu chuẩn đạo đức và hướng tới những giá trị đó.
Vậy đáp án là C.
Q19:
Từ khóa câu hỏi: Which of the following best summarises the writer’s argument in the sixth paragraph?
Từ đồng nghĩa trong bài: The ‘getting started’ problem is that we need to tell the machines what they’re looking for with sufficient clarity that we can be confident they will find it whatever ‘it’ actually turns out to be. This won’t be easy, given that we are tribal creatures and conflicted about the ideals ourselves. We often ignore the suffering of strangers, and even contribute to it, at least indirectly. How then, do we point machines in the direction of something better?
Giải thích: Chúng ta cần phải dạy cho máy móc biết mục tiêu chúng cần nhắm tới là gì một cách rõ ràng nhưng điều này là không dễ vì chúng ta vốn là sinh vật theo bầy đàn và có những lý tưởng rất mâu thuẫn. Chúng ta thường xem nhẹ sự đau khổ của người khác, hoặc thậm chí làm họ đau đớn thêm, dù có lúc chỉ là gián tiếp. Vậy thì, làm sao chúng ta dạy máy móc đâu mới là hướng đi đúng đắn?
Ta hiểu rằng chính sự thiếu sót của con người sẽ cản trở việc chế tạo ra máy móc với lý tưởng cao đẹp.
Đáp án là D.
Q20:
Từ khóa câu hỏi: Machines with the ability to make moral decisions may prevent us from promoting the interests of our communities.
Từ đồng nghĩa trong bài: Machines who are better than us at sticking to the moral high ground may be expected to discourage some of the lapses we presently take for granted. We might lose our freedom to discriminate in favour of our own communities, for example.
Giải thích: Máy móc mà giỏi hơn chúng ta trong việc duy trì tiêu chuẩn đạo đức cao sẽ ngăn chặn sự suy đồi của con người. Ví dụ, chúng ta sẽ mất đi quyền tự do để ưu ái cộng đồng của mình hơn những cộng đồng khác.
Vậy đáp án là YES.
Q21:
Từ khóa câu hỏi: Silicon police would need to exist in large numbers in order to be effective.
Từ đồng nghĩa trong bài: But are we ready for ethical silicon police limiting our options?
Giải thích: Ta tìm được thông tin về việc cảnh sát silicon (cảnh sát nhân tạo) sẽ cho chúng ta ít lựa chọn hơn. Không có thông tin gì về số lượng cảnh sát silicon cần có để hoạt động hiệu quả.
Vậy đáp án là NOT GIVEN.
Q22:
Từ khóa câu hỏi: Many people are comfortable with the prospect of their independence being restricted by machines.
Từ đồng nghĩa trong bài: They might be so good at doing it that we won’t notice them, but few of us are likely to welcome such a future.
Giải thích: Rất ít người trong số chúng ta sẽ mong muốn một viễn cảnh tương lai mà sự tự chủ của mình bị tước đi bởi máy móc. Điều này trái ngược với nhận định đề bài đưa ra.
Vậy đáp án là NO.
Q23:
Từ khóa câu hỏi: If we want to ensure that machines act in our best interests, we all need to work together.
Từ đồng nghĩa trong bài: It is not yet clear whether this is possible, but if it is, it will require a cooperative spirit, and a willingness to set aside self-interest.
Giải thích: Nếu muốn máy móc thực hiện tốt vai trò của nó, thì trước hết chúng ta cần phải có tinh thần hợp tác, và sẵn sàng đặt lợi ích cá nhân sang một bên.
Vậy đáp án là YES.
Q24:
Từ khóa câu hỏi: Al currently has a limited role in the way _______________ are allocated in the health service.
Từ đồng nghĩa trong bài: Al already has some input into how resources are used in our National Health Service (NHS) there in the UK, for example.
Giải thích: AI hiện tại đã đang hỗ trợ cung cấp thông tin đầu vào cho việc phân bổ nguồn lực (resources) trong ngành y tế cộng đồng ở nước Anh.
Vậy đáp án là C – available resources.
Q25 + Q26:
Từ khóa câu hỏi: However, such a change would result, for example, in certain _______________ not having their current level of _______________.
Từ đồng nghĩa trong bài: However, we’d be depriving some humans (e.g. senior doctors) of the control they presently enjoy.
Giải thích: Tuy nhiên, thay đổi có nghĩa là chúng ta sẽ tước đi quyền tự quyết vốn có của một số con người (như là các bác sĩ kỳ cựu).
Vậy đáp án lần lượt là A – medical practitioners (“những người hành nghề y khoa”, đồng nghĩa với senior doctors) và E – professional authority (“quyền lực chuyên môn”, đồng nghĩa với control)
Hy vọng rằng bài viết này sẽ giúp bạn hiểu và hoàn thành bài LIVING WITH ARTIFICIAL INTELLIGENCE (CAMBRIDGE 18 – TEST 2 – PASSAGE 2). Chúc các bạn học tốt!
Xem thêm