본문 바로가기

6 Minute English

[영어독해공부] Can AI have a mind of its own? - 영국 BBC 6분 영어 강좌

728x90

 

 

이 자료는 BBC Learning English 코너의 6 Minute English가 매주 재공하는 스크립트를 직역한 것입니다. 이번 주 스크립트의 주제는 'Can AI have a mind of its own?' 입니다.

해석은 철저하게 직역하였습니다. 관계사절 등의 절이나 긴 부정사, 동명사구, 삽입구 등은 이해를 위해 []를 사용해 묶었습니다. 이 글의 목적은 번역이 아니라 원문을 영어적으로 이해하는 것이기 때문입니다.

[본문] [01] Hello.
[직역] 안녕(하세요).

[본문] [02] This is 6 Minute English from BBC Learning English.
[직역] 여기는 비비씨 학습 영어의 6분 영어입니다.

[본문] [03] I'm Sam.
[직역] 나는 샘입니다.

[본문] [04] And I'm Neil.
[직역] 그리고 나는 닐입니다.

[본문] [05] In the autumn of 2021, something strange happened at the Google headquarters in California's Silicon Valley.
[직역] 2021년 가을에 이상한 무언가가 캘리포니아 실리콘 밸리에 있는 구글 본사에서 발생하였습니다.

[본문] [06] A software engineer called, Blake Lemoine, was working on the artificial intelligence project, 'Language Models for Dialogue Applications', or LaMDA for short.
[직역] 블레이크 르모인이라고 불리는 소프트웨어 엔지니어는 '대화 언어 모형 프로그램('Language Models for Dialogue Applications)' 또는 줄여서 LaMDA 라고 하는 인공 지능 프로젝트에서 일하고 있는 중이었습니다.

[본문] [07] LaMDA is a chatbot - a computer programme designed to have conversations with humans over the internet.
[직역] 람다는 챗봇입니다 (즉, 그것은) 인터넷 상에서 인간과 함께 대화하기 위해 설계된 컴퓨터 프로그램 (입니다).

[본문] [08] After months talking with LaMDA on topics ranging from movies to the meaning of life, Blake came to a surprising conclusion: the chatbot was an intelligent person with wishes and rights that should be respected.
[직역] 영화에서부터 삶의 의미까지 포함하는 주제에 관하여 람다와 함꼐 대화를 한 여러 달 후에, Blake는 놀라운 결론에 이르게 되었습니다. 즉, 챗봇은 [존중되어야만 하는] 소망과 권리를 가진 지능을 가진 사람이었습니다.

[본문] [09] For Blake, LaMDA was a Google employee, not a machine.
[직역] Blake에게 람다는 기계가 아니라 구글(의) 직원이었습니다.

[본문] [10] He also called it his 'friend'.
[직역] 그는 또한 그것을 그의 친구라고 불렀습니다.

[본문] [11] Google quickly reassigned Blake from the project, announcing that his ideas were not supported by the evidence.
[직역] 구글은 [그의 생각이 증거로 뒷받침된 것이 아니라고] 발표하면서, 재빨리 Blake를 프로젝트에서부터 전환 배치하였습니다.

[본문] [12] But what exactly was going on?
[직역] 그러나 정확하게 무슨 일이었습니까?

 


[본문] [13] In this programme, we'll be discussing whether artificial intelligence is capable of consciousness.
[직역] 이 프로그램에서 우리는 [인공 지능이 의식의 능력이 있는지 어떤 지를] 논의를 하는 중일 것입니다.

[본문] [14] We'll hear from one expert who thinks AI is not as intelligent as we sometimes think, and as usual, we'll be learning some new vocabulary as well.
We'll hear from one expert who thinks {that} AI is not as intelligent as we sometimes think, and as usual, we'll be learning some new vocabulary as well.
[직역] 우리는 [[인공 지능이 [우리가 때때로 생각하는 것 만큼] 지능적이지 않다고] 생각하는] 어느 한 전문가로부터 들을 것입니다. 그리고 마찬가지로, 평소처럼 우리는 몇몇 새로운 어휘를 배우고 있을 것입니다.

[본문] [15] But before that, I have a question for you, Neil.
[직역] 그러나 그 전에 닐, 나는 당신에게 질문이 있습니다.

[본문] [16] What happened to Blake Lemoine is strangely similar to the 2013 Hollywood movie, Her, starring Joaquin Phoenix as a lonely writer who talks with his computer, voiced by Scarlett Johansson.
[직역] 블레이크 르모인에게 일어난 일은 [Scarlett Johansson에 의해 목소리를 냈던 그의 컴퓨터와 대화하는] 외로운 작가로 Joaquin Phoenix이 주연을 맡았던 2013년의 할리우드 영화 'HER'와 이상하게 비슷합니다.

[본문] [17] But what happens at the end of the movie?
[직역] 그런데, 영화의 끝에 무엇이 발생합니까?

[본문] [18] Is it:
[직역] 이것입니다.

[본문] [19] a) the computer comes to life b) the computer dreams about the writer or, c) the writer falls in love with the computer?
[직역] ⒜ 컴퓨터가 사람이 됩니다 ⒝ 컴퓨터가 작가의 꿈을 꿉니다 또는, ⒞ 작가가 컴퓨터와 사랑에 빠집니다.

[본문] [20] … c) the writer falls in love with the computer.
[직역] … ⒞ 작가가 컴퓨터와 사랑에 빠집니다

[본문] [21] OK, Neil, I'll reveal the answer at the end of the programme.
[직역] 오케이 닐 나는 이 프로그램의 말미에 답을 밝히겠습니다.

[본문] [22] Although Hollywood is full of movies about robots coming to life, Emily Bender, professor of linguistics and computing at the University of Washington, thinks AI isn't that smart.
Although Hollywood is full of movies about robots coming to life, Emily Bender, professor of linguistics and computing at the University of Washington, thinks {that} AI isn't that smart.
[직역] 할리우드가 삶을 얻게 되는 로봇에 관한 영화로 가득 차 있기는 하지만, 워싱턴 대학교의 언어학과 컴퓨터 학과 교수인 Emily bender는 [인공 지능이 그 정도로 영리하지 않다고] 생각합니다.

[본문] [23] She thinks the words we use to talk about technology, phrases like 'machine learning', give a false impression about what computers can and can't do.
She thinks {that} the words {which/that} we use to talk about technology, phrases like 'machine learning', give a false impression about what computers can and can't do.
[직역] 그녀는 [[우리가 기술에 대해 이야기하기 위해 사용한] 단어 즉, 'machine learning'과 같은 어구가 [컴퓨터가 할 수 있는 것과 할 수 없는 것]에 관한 잘못된 인상을 준다고] 생각합니다.

[본문] [24] Here is Professor Bender discussing another misleading phrase, 'speech recognition', with BBC World Service programme, The Inquiry:
[직역] 여기에 비비씨-월드서비스프로그램 더인콰이어리와 또 다른 오도하는 어구인 'speech recognition'에 대해 논의하는 bender 교수가 있습니다.

[본문] [25] If you talk about 'automatic speech recognition', the term 'recognition' suggests that there's something cognitive going on, where I think a better term would be automatic transcription.
If you talk about 'automatic speech recognition', the term 'recognition' suggests that there's something cognitive going on, where I think {that} a better term would be automatic transcription.
[직역] 만약 당신이 'automatic speech recognition(자동음성인식)'에 대해 이야기한다면, 'recognition'이라는 용어는 [지속하고 있는, 인지하는 무언가가 있다]는 것을 암시합니다. 그러나 거기서 나는 [보다 더 좋은 용어는 자동화된 기록일 것이라고] 생각합니다.

[본문] [26] That just describes the input-output relation, and not any theory or wishful thinking about what the computer is doing to be able to achieve that.
[직역] 그것은 단지 입출력 관계 만을 서술합니다. 그리고 [컴퓨터가 그것을 성취할 수 있도록 하고 있는 중인 것에 관한] 어떤 이론이나 희망 사항을 (서술하지) 않습니다.

[본문] [27] Using words like 'recognition' in relation to computers gives the idea that something cognitive is happening - something related to the mental processes of thinking, knowing, learning and understanding.
[직역] 컴퓨터에 관하여 'recognition'과 같은 단어를 사용하는 것은 [인지적인 무언가가 벌어지는 중이라는] 견해를 줍니다. (즉, recognition은) 생각하는 것, 아는 것, 배우는 것 그리고 이해하는 것이라는 정신적인 과정과 관련 있는 무언가 (입니다).

[본문] [28] But thinking and knowing are human, not machine, activities.
[직역] 그러나 생각하는 것과 안다는 것은 기계의 행동이 아니라 인간의 (행동)입니다.

[본문] [29] Professor Benders says that talking about them in connection with computers is wishful thinking - something which is unlikely to happen.
[직역] 벤더스 교수는 [컴퓨터와 관련되어 그 들에 대해 이야기하는 것은 희망 사항이라고] 말합니다. (즉, wishful thinking은) 벌어질 개연성이 낮은 무언가 (입니다).

 

 


[본문] [30] The problem with using words in this way is that it reinforces what Professor Bender calls, technical bias - the assumption that the computer is always right.
[직역] 이러한 방식으로 단어를 사용하는 것이 갖는 문제는 [그것이 [Bender 교수가 기술적인 편견이라고 부르는 것]을 강화한다는] 것입니다. (즉, 그것은) [컴퓨터가 항상 옳다는] 추정 (입니다).

[본문] [31] When we encounter language that sounds natural, but is coming from a computer, humans can't help but imagine a mind behind the language, even when there isn't one.
[직역] 우리가 [자연스럽게 들리지만 컴퓨터에서 나온 것인] 언어를 마주치면, [심지어 하나가 아닌 때에 조차도] 사람들은 언어 뒤에 있는 마음을 상상하지 않을 수 없습니다.

[본문] [32] In other words, we anthropomorphise computers - we treat them as if they were human.
[직역] 다시 말하면 우리는 컴퓨터를 의인화합니다 (즉,) 우리는 그들을 [마치 그들이 사람인 것처럼] 대합니다.

[본문] [33] Here's Professor Bender again, discussing this idea with Charmaine Cozier, presenter of BBC World Service's, the Inquiry.
[직역] 여기에 다시 Bender 교수가 있습니다. 그리고 그는 이러한 생각을 비비씨-월드서비스(의) 더인콰이어리의 사회자인 Charmaine Cozier와 함께 논의합니다.

[본문] [34] So 'ism' means system, 'anthro' or 'anthropo' means human, and 'morph' means shape… And so this is a system that puts the shape of a human on something, and in this case the something is a computer.
[직역] 그래서 'ism'은 시스템을 뜻하고, 'anthro' 또는 'anthropo'는 인간을 의미합니다 그리고 'morph'는 형상을 뜻합니다. 그리고 그래서 이것은 [무언가를 사람의 모양으로 나타내는] 시스템입니다. 그리고 이번의 경우에 무언가는 컴퓨터입니다.

[본문] [35] We anthropomorphise animals all the time, but we also anthropomorphise action figures, or dolls, or companies when we talk about companies having intentions and so on.
[직역] 우리는 줄곧 동물을 의인화합니다. 그런데 우리는 또한 (움직이는) 캐릭터 인형이나 또는 인형 또는 [우리가 의도를 갖고 있는 회사에 대해 이야기할 때에] 회사, 그리고 기타 등등 의인화합니다.

[본문] [36] We very much are in the habit of seeing ourselves in the world around us.
[직역] 우리는 우리를 둘러싸고 있는 세계에서 우리들 자신을 보려고 하는 습관이 아주 많습니다.

[본문] [37] And while we're busy seeing ourselves by assigning human traits to things that are not, we risk being blindsided.
[직역] 그리고 우리가 인간의 특성을 [(인간이) 아닌] 것들에게 배정하는 것으로 우리들 자신을 보느라고 바쁜 와중에, 우리는 기습을 당함으로 위태롭게 되었습니다.

[본문] [38] The more fluent that text is, the more different topics it can converse on, the more chances there are to get taken in.
[직역] 그 텍스트가 더 많이 유창하면 할 수록, 그것은 더 많은 다른 주제들에 관해 대화를 할 수 있고, 속임수에 넘어갈 더 많은 가능성이 있습니다.

[본문] [39] If we treat computers as if they could think, we might get blindsided, or unpleasantly surprised.
[직역] 만약 우리가 컴퓨터를 [마치 그것들이 생각할 수 있는 것처럼] 대한다면, 우리는 기습을 당하거나 또는 불쾌하게 놀라게 될 수도 있습니다.

[본문] [40] Artificial intelligence works by finding patterns in massive amounts of data, so it can seem like we're talking with a human, instead of a machine doing data analysis.
[직역] 인공 지능은 거대한 양의 데이터에서 패턴을 찾는 것에 의하여 작동합니다. 그래서 [우리가 자료 분석을 하는 기계 대신에 사람과 함께 말하는 중인 것처럼] 보일 수 있습니다.

[본문] [41] As a result, we get taken in - we're tricked or deceived into thinking we're dealing with a human, or with something intelligent.
As a result, we get taken in - we're tricked or deceived into thinking {that} we're dealing with a human, or with something intelligent.
[직역] 결과적으로 우리는 속임수에 넘어갑니다. 즉, 우리는 [우리가 인간이나 또는 지능을 가진 무언가를 다루는 중이라고] 생각하는 것으로 속거나 또는 기만을 당합니다.

[본문] [42] Powerful AI can make machines appear conscious, but even tech giants like Google are years away from building computers that can dream or fall in love.
[직역] 강력한 인공 지능은 기계가 의식을 나타내도록 만들 수 있습니다. 그러나 구글과 같은 하이테크 거인 조차도 [꿈을 꾸거나 또는 사랑에 빠질 수 있는] 컴퓨터를 구축하는 데에 여러 해 걸립니다.

[본문] [43] Speaking of which, Sam, what was the answer to your question?
[직역] 그래서 샘 그것에 관해서 말한다면, 당신의 질문에 대한 답은 무엇입니까?

[본문] [44] I asked what happened in the 2013 movie, Her.
[직역] 나는 2013년의 영화 'Her'에 무슨 일이 발생했는지를 질문했습니다.

[본문] [45] Neil thought that the main character falls in love with his computer, which was the correct answer!
[직역] 닐은 [주인공이 그의 컴퓨터와 사랑에 빠진다고] 생각하였습니다. 그런데 그것은 맞는 답변이었습니다.

[본문] [46] OK.
[직역] 오케이.

[본문] [47] Right, it's time to recap the vocabulary we've learned from this programme about AI, including chatbots - computer programmes designed to interact with humans over the internet.
[직역] 알았어요 챗봇을 포함하여 우리가 이 프로그램으로부터 배운 인공 지능에 관한 어휘를 살펴볼 시간입니다. (즉, 그것은) 인터넷 상에서 사람들과 교류하기 위해 설계된 컴퓨터 프로그램 (입니다).

 


[본문] [48] The adjective cognitive describes anything connected with the mental processes of knowing, learning and understanding.
[직역] 형용사인 'cognitive'는 아는 것, 배우는 것 그리고 이해하는 것 등의 정신적인 과정과 관련된 무엇을 서술합니다.

[본문] [49] Wishful thinking means thinking that something which is very unlikely to happen might happen one day in the future.
[직역] 'Wishful thinking(희망 사항)'은 [[매우 발생할 개연성이 낮은] 무언가가 미래에 언젠가 발생할 수도 있다고] 생각하는 것을 의미합니다.

[본문] [50] To anthropomorphise an object means to treat it as if it were human, even though it's not.
[직역] 물체를 'anthropomorphise(의인화하다)'는 그것을 [마치 [[비록 그것이 아님에도 불구하고], 그것이 사람인 것처럼] 대하는 것을] 의미합니다.

[본문] [51] When you're blindsided, you're surprised in a negative way.
[직역] 당신이 'blindsided' 되면 당신은 나쁜 방법으로 놀라게 됩니다.

[본문] [52] And finally, to get taken in by someone means to be deceived or tricked by them.
[직역] 그리고 마지막으로 ' get taken in'은 그들에게 속거나 또는 기만을 당하는 것을 의미합니다.

[본문] [53] My computer tells me that our six minutes are up!
[직역] 나의 컴퓨터기 나에게 [우리의 6분영어가 끝났다고] 전합니다.

[본문] [54] Join us again soon, for now it's goodbye from us.
[직역] 곧, 우리에게 합류하십시오. 이제 이제는 우리가 안녕 인사를 할 시간입니다.

[본문] [55] Is artificial intelligence capable of consciousness?
[직역] 인공 지능이 자각할 수 있을까요?

[본문] [56] We'll hear from an expert who thinks AI is not as intelligent as we sometimes think, and as usual, we'll be learning some new vocabulary as well.
We'll hear from an expert who thinks {that} AI is not as intelligent as we sometimes think, and as usual, we'll be learning some new vocabulary as well.
[직역] 우리는 [인공 지능이 [우리가 때때로 생각하는 것] 만큼 지능적이지는 않다고 생각하는] 전문가로부터 들을 것입니다. 그리고 마찬가지로, 늘 그렇듯이 우리는 몇몇 새로운 어휘를 배우고 있을 것입니다.


pdf 파일은 이곳을 클릭하세요.
https://softca.tistory.com/2080을 클릭하세요.

[Blog Home]

 



이 블로그에는 [BBC 6분 영어와 관련하여 매주 다음과 같은 글들이 게시 됩니다

  • 단어공부(금주 대본에 나온 주요 어휘) https://softca.tistory.com/2081
  • 멀티단어공부(금주 대본에 사용된 멀티단어(구동사, 숙어) 간단 정리) https://softca.tistory.com/2082
  • 독해공부(금주 대본의 문장별 해석(직역) 자료) 이 글입니다
  • 문장별 문법공부(문장별 문법 설명) 이 글의 포스팅 시점에는 아직 작성되지 않았습니다.
  • 금주의 어휘(금주 대본에 나온 금주의 어휘를 집중적으로 정리한 자료) 이 글의 포스팅 시점에는 아직 작성되지 않았습니다.
  • 항목별 문법공부(금주 대본에 나온 문법을 주제별/항목별로 정리한 자료) 이 글의 포스팅 시점에는 아직 작성되지 않았습니다.
  • 금주의 구동사(금주 대본에 사용된 구동사 상세 정리) 이 글의 포스팅 시점에는 아직 작성되지 않았습니다.
  • 금주의 PDF(금주의 PDF 및 기타 다운로드 파일) https://softca.tistory.com/2080

 



아래의 이미지를 클릭하시면 PDF로 된 대본(Script)를 다운받을 수 있습니다.

 



[영어 문장 공부] 자료를 처음 보시는 분은 아래의 링크를 클릭하셔서 「공부법」을 먼저 보시기를 권장 드립니다.
[영어문장공부] 학습법 보기



오디오 듣기

 


 

 

300x250