이 자료는 BBC Learning English 코너의 6 Minute English가 매주 재공하는 스크립트를 직역한 것입니다. 이번 주 스크립트의 주제는 'Should we fear chatbots?' 입니다.
해석은 철저하게 직역하였습니다. 관계사절 등의 절이나 긴 부정사, 동명사구, 삽입구 등은 이해를 위해 []를 사용해 묶었습니다. 이 글의 목적은 번역이 아니라 원문을 영어적으로 이해하는 것이기 때문입니다.
[본문] [01] Hello.
[직역] 안녕(하세요)
[본문] [02] This is 6 Minute English from BBC Learning English.
[직역] 여기는 BBC 학습 영어의 6분 영어입니다
[본문] [03] I'm Neil.
[직역] 나는 닐입니다
[본문] [04] And I'm Rob.
[직역] 그리고 나는 롭입니다
[본문] [05] Now, I'm sure most of us have interacted with a chatbot.
Now, I'm sure {that} most of us have interacted with a chatbot.
[직역] 이제 나는 [대부분의 우리가 챗봇과 상호 작용을 해 오고 있다] (라고) 확신합니다.
[본문] [06] These are bits of computer technology that respond to text with text or respond to your voice.
[직역] 이것들은 일련의 [문서를 가진 문서에 대응하거나 또는 당신의 목소리에 대응하는] 컴퓨터 기술입니다.
[본문] [07] You ask it a question and it usually comes up with an answer!
[직역] 당신 그것에게 질문을 묻습니다 그리고 그것은 보통 대답을 제시합니다.
[본문] [08] Yes, it's almost like talking to another human, but of course it's not - it's just a clever piece of technology.
[직역] 맞아요 그것은 거의 다른 사람에게 말을 거는 것과 같습니다. 그러나 물론 그것은 아닙니다 (즉,) 그것은 단지 영리한 하나의 기술입니다.
[본문] [09] It is becoming more sophisticated - more advanced and complex, but could they replace real human interaction altogether?
[직역] 그것은 보다 더 정교하게 즉, 보다 더 발전되고 (그리고) 복잡하게 되는 중입니다. 그런데 그것들이 실제의 사람 간의 상호작용을 완전히 대신할 수 있을까요?
[본문] [10] We'll discuss that more in a moment and find out if chatbots really think for themselves.
[직역] 우리는 곧 바로 그것을 보다 더 많이 상의할 것입니다. 그리고 [챗봇이 실제로 스스로 생각하는 지를] 알아낼 것입니다.
[본문] [11] But first I have a question for you, Rob.
[직역] /그러나 // 롭, 먼저 나는 당신에게 질문이 있습니다
[본문] [12] The first computer program that allowed some kind of plausible conversation between humans and machines was invented in 1966, but what was it called?
[직역] [사람과 기계 사이에 일종의 타당한 것 같은 대화를 가능하게 했던] 첫 컴퓨터 프로그램은 1996년에 발명되었습니다. 그런데, 그것은 무엇이라고 불렸습니까?
[본문] [13] Was it:
[직역] 이것이었습니다.
[본문] [14] a) ALEXA b) ELIZA c) PARRY
[직역] a) ALEXA b) ELIZA c) PARRY
[본문] [15] It's not Alexa - that's too new - so I'll guess c) PARRY.
[직역] 그것은 Alexa가 아닙니다. 그것을 아주 최신입니다. 그래서 나는 ⒞ PARRY를 추측하겠습니다.
[본문] [16] I'll reveal the answer at the end of the programme.
[직역] 나는 이 프로그램의 말미에 답을 밝히겠습니다
[본문] [17] Now, the old chatbots of the 1960s and 70s were quite basic, but more recently, the technology is able to predict the next word that is likely to be used in a sentence, and it learns words and sentence structures.
[직역] 이제, 1960년대와 (그리고) 70년대의 오래된 챗봇은 아주 기초적인 것이었습니다. 그러나 보다 요즈음에는 기술이 [문장에서 사용될 개연성이 있는] 다음의 단어를 예측할 수 있습니다. 그리고 그것은 낱말과 문장구조를 배웁니다.
[본문] [18] It's clever stuff.
[직역] 그것은 영리한 것들입니다.
[본문] [19] I've experienced using them when talking to my bank - or when I have problems trying to book a ticket on a website.
[직역] 나는 [나의 은행에 연락할 때나 또는 내가 웹사이트에서 티켓을 예약하려고 시도하는 것에 골치가 아팠을 때에] 그것들을 사용하는 것을 경험한 적이 있습니다.
[본문] [20] I no longer phone a human but I speak to a 'virtual assistant' instead.
[직역] 나는 이미 사람에게 전화를 걸지 않습니다. 그러나 대신에 나는 '가상비서'와 말을 주고받습니다.
[본문] [21] Probably the most well-known chatbot at the moment is ChatGTP.
[직역] 아마도 가장 많이 유명한 챗봇은 바로 지금은 챗지티피입니다.
[본문] [22] It is.
[직역] 그것 입니다.
[본문] [23] The claim is it's able to answer anything you ask it.
The claim is {that} it's able to answer anything {which/that} you ask it.
[직역] 주장은 [그것은 [당신이 그것에게 묻는] 무엇이든 대답할 수 있다] (라는 것)입니다.
[본문] [24] This includes writing students' essays.
[직역] 이것은 포함합니다 대학생들이 에세이 과제물을 쓰는 것을.
[본문] [25] This is something that was discussed on the BBC Radio 4 programme, Word of Mouth.
[직역] 이것은 [BBC 라디오4 프로그램 워드오브마우스에서 논의한] 무언가입니다.
[본문] [26] Emily M Bender, Professor of Computational Linguistics at the University of Washington, explained why it's dangerous to always trust what a chatbot is telling us…
[직역] 워싱턴 대학교의 컴퓨터 언어학 교수인 Emily M bender는 [[챗봇이 우리에게 알려 주는 것]을 항상 신뢰하는 것이 왜 위험한지를] 설명했습니다.
[본문] [27] We tend to react to grammatical fluent coherent seeming text as authoritative and reliable and valuable - and we need to be on guard against that, because what's coming out of ChatGTP is none of that.
[직역] 우리는 문법적으로 유창하고, 일관성 있게 보이는 문서에 권위적이고, 믿을 수 있고 가치 있다고 반응하는 경향이 있습니다. 그렇지만 우리는 그것에 대해 경고할 필요가 있습니다. 왜냐하면 챗지피티에서 나오고 있는 것은 그것과 아무 관련이 없기 때문입니다.
[본문] [28] So, Professor Bender says that well written text that is coherent - that means it's clear, carefully considered and sensible - makes us think what we are reading is reliable and authoritative.
So, Professor Bender says that well written text that is coherent - that means it's clear, carefully considered and sensible - makes us think {that} what we are reading is reliable and authoritative.
[직역] 그래서 bender 교수가 [[잘 쓰여진 [일관성 있는] 문서는 우리가 [우리가 읽고 있는 것]이 믿을 수 있고 권위적이다] 라는 것을 생각하게 만든다] (라는 것을) 말합니다. (즉, coherent) 그것은 [그것은 확실하고, 주의깊게 생각되고 그리고 분별 있다] 라는 의미입니다.
[본문] [29] So it is respected, accurate and important sounding.
[직역] 그래서 그것은 높이 평가되고 정확하고 그리고 중요한 의견 조사입니다.
[본문] [30] Yes, chatbots might appear to write in this way, but really, they are just predicting one word after another, based on what they have learnt.
Yes, chatbots might appear to write in this way, but really, they are just predicting one word after another, {being} based on what they have learnt.
[직역] 맞아요 챗봇이 이런 방식으로 쓰는 것으로 보일 지도 모릅니다. 그러나 실제로는 [그것들이 배워온] 것에 기반하여, 그것들은 또 하나 뒤에 단지 어느 한 단어를 예측할 뿐입니다.
[본문] [31] We should, therefore, be on guard - be careful and alert about the accuracy of what we are being told.
[직역] 우리는 그러므로 보초서고 있을 것입니다. (즉, 그것은) [우리가 들은] 것의 정확성에 관하여 세심하고 주위를 환기합니다.
[본문] [32] One concern is that chatbots - a form of artificial intelligence - work a bit like a human brain in the way it can learn and process information.
[직역] 한 가지 우려는 [일종의 인공 지능인 챗봇은 약간은 [그것은 배울 수 있고 정보를 처리할 수 있는] 방식으로 인간의 뇌와 같이 작동한다] 라는 것입니다.
[본문] [33] They are able to learn from experience - something called deep learning.
[직역] 그들은 경험에서부터 배울 수 있습니다 (즉, 그것은) 딥 러닝으로 불리는 무언가(입니다).
[본문] [34] A cognitive psychologist and computer scientist called Geoffrey Hinton, recently said he feared that chatbots could soon overtake the level of information that a human brain holds.
A cognitive psychologist and computer scientist called Geoffrey Hinton, recently said {that} he feared that chatbots could soon overtake the level of information that a human brain holds.
[직역] Geoffrey Hinton라고 불리는 인지 심리학자이자 컴퓨터 과학자는 최근에 [그가 [챗봇이 [인간의 뇌가 가지고 있는] 정보의 수준을 곧 추월할 수 있다] 라는 것을 두려워했다] (라고) 말했습니다.
[본문] [35] That's a bit scary isn't it?
[직역] 그것은 조금 무섭습니다, 그렇지 않나요?
[본문] [36] For now, chatbots can be useful for practical information, but sometimes we start to believe they are human, and we interact with them in a human-like way.
For now, chatbots can be useful for practical information, but sometimes we start to believe {that} they are human, and we interact with them in a human-like way.
[직역] 우선 챗봇은 실용적인 정보에는 도움이 될 수 있습니다. 그러나 때때로 우리는 [그것들이 인간이다] (라고) 믿기 시작합니다. 그리고 우리는 그들과 인간스러운 방식으로 상호 작용을 합니다.
[본문] [37] This can make us believe them even more.
[직역] 이것들은 우리가 그것들을 훨씬 더 믿게 할 수 있습니다.
[본문] [38] Professor Emma Bender, speaking on the BBC's Word of Mouth programme, explains why we meet feel like that…
[직역] 비비씨 워드오브마우스 프로그램에서 이야기를 계속하면서 Emma bender 교수는 [왜 우리가 그렇게 느끼는지를] 설명합니다.
[본문] [39] I think what's going on there is the kinds of answers you get depend on the questions you put in, because it's doing likely next word, likely next word, and so if as the human interacting with the machine you start asking it questions about 'how do you feel, you know, Chatbot?' 'What do you think of this?' And. 'what are your goals?'
[직역] 1) 그것이 아마도 다음 단어, 아마도 다음 단어를 하고 있기 때문에, 나는 [[[[당신이 얻은] 일종의 대답들이 [당신이 제기한] 질문에 종속된다는 것]이 있다]는 것이 무슨 일입니까] 라고 생각합니다. ⑵만약 인간이 기계와 상호작용하면서, 당신이 그것에게 'how do you feel, you know, Chatbot?', What do you think of this?', 'what are your goals?'라는 질문들을 묻기 시작하면,
[본문] [40] You can provoke it to say things that sound like what a sentient entity would say… We are really primed to imagine a mind behind language whenever we encounter language.
'what are your goals?' You can provoke it to say things that sound like what a sentient entity would say... We are really primed to imagine a mind behind language whenever we encounter language.
[직역] 당신은 그것이 [지각이 있는 존재가 말할 수도 있는 것과 같은] 이것저것들을 말하도록 유발할 수 있습니다. 우리는 실제로 [우리가 언어를 마주할 때마다] 언어 뒤에 있는 마음을 상상하도록 대비합니다.
[본문] [41] And so, we really have to account for that when we're making decisions about these.
[직역] 그리고 그래서 우리는 이것에 관하여 결정하고 있는 중일 때에, 우리 실제로 그것을 해명해야 합니다.
[본문] [42] So, although a chatbot might sound human, we really just ask it things to get a reaction - we provoke it - and it answers only with words it's learned to use before, not because it has come up with a clever answer.
[직역] 그래서 챗봇이 사람인 것 같기는 하지만, 우리는 실제로 단지 반응을 얻기 위해 그것에게 이것저것을 묻습니다. (즉,) 우리는 그것을 유발합니다. 그리고 그것은 [그것이 영리한 대답을 생각해 왔기 때문이 아니라], 그것이 사용하기 위해 전에 배운 낱말들만으로 오직 대답합니다.
[본문] [43] But it does sound like a sentient entity - sentient describes a living thing that experiences feelings.
[직역] 그러나 그것은 지각이 있는 존재처럼 들립니다. (즉,) 'sentient'는 [느낌을 경험하는] 살아 있는 것을 말합니다.
[본문] [44] As Professor Bender says, we imagine that when something speaks there is a mind behind it.
[직역] Bender 교수가 말하듯이, 우리는 [이야기할 때, 무언가가 그것 뒤에 마음이 있다] 라는 것을 상상합니다.
[본문] [45] But sorry, Neil, they are not your friend, they are just machines!
[직역] 그러나 유감스럽게도 닐 그들은 당신의 친구가 아닙니다. 그것들은 단지 기계입니다.
[본문] [46] It's strange then that we sometimes give chatbots names.
[직역] 그러면 [우리가 때때로 챗봇에게 이름을 주는 것은] 이상합니다.
[본문] [47] Alexa, Siri… and earlier I asked you what the name was for the first ever chatbot.
[직역] Alexa Siri (등등) 그리고 보다 앞서 나는 당신에게 처음에 어느 때에 있었던 챗봇에 해당하는 이름이 무엇인지를 물었습니다.
[본문] [48] And I guessed it was PARRY.
[직역] 그리고 나는 그것은 PARRY이다 (라고) 추측했습니다.
[본문] [49] Was I right?
[직역] 내가 ^맞았나요?
[본문] [50] You guessed wrong, I'm afraid.
[직역] 당신은 틀리게 추측했습니다. 나는 우려합니다.
[본문] [51] PARRY was an early form of chatbot from 1972, but the correct answer was ELIZA.
[직역] PARRY는 1972년에 나온 챗봇의 초기의 형태입니다. 그러나 맞는 대답은 을 ELIZA입니다.
[본문] [52] It was considered to be the first 'chatterbot' - as it was called then, and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
[직역] 그 당시에 그것이 불려졌고 (그리고). 매사추세츠 공과 대학의 Joseph Weizenbaum에 의해 개발되어서, 그것은 처음의 'chatterbot'인 것으로 여겨집니다.
[본문] [53] Fascinating stuff.
[직역] 대단한 물건이군요
[본문] [54] OK, now let's recap some of the vocabulary we highlighted in this programme.
[직역] 오케이 이제 이 프로그램에서 우리가 강조했던 어휘의 일부를 간추려 봅시다.
[본문] [55] Starting with sophisticated which can describe technology that is advanced and complex.
[직역] [[발전되고 복잡한] 기술을 말할 수 있는] 'sophisticated'으로 시작하면서.
[본문] [56] Something that is coherent is clear, carefully considered and sensible.
[직역] 'coherent'한 무언가는 확실하고 조심스럽게 간주되고 그리고 분별 있습니다.
[본문] [57] Authoritative - so it is respected, accurate and important sounding.
[직역] 'Authoritative', 즉 그래서 그것은 존중이 되고 정확하고 그리고 중요한 의견 조사(입니다).
[본문] [58] When you are on guard you must be careful and alert about something - it could be accuracy of what you see or hear, or just being aware of the dangers around you.
When you are on guard you must be careful and alert about something - it could be ①accuracy of what you see or hear, or② just being aware of the dangers around you.
[직역] 당신이 'on guard'할 때에, 무언가에 관하여 당신은 조심해야 하고 경계해야 합니다 (즉,) 그것은 당신 보거나 (또는) 들은 것에 정확할 수 있습니다 또는 단지 당신의 근처에 있는 위험을 알게 되는 것임일 수 있습니다.
[본문] [59] To provoke means to do something that causes a reaction from someone.
[직역] [반응을 누군가로부터 야기하는] 무언가를 하는 'provoke'는 뜻합니다.
[본문] [60] Sentient describes something that experiences feelings - so it's something that is living.
[직역] 'Sentient'는 [느낌을 경험하는] 무언가를 말합니다 (즉,) 그래서 그것은 [살고 있는 중인] 무언가입니다.
[본문] [61] Once again, our six minutes are up.
[직역] 한 번 더 우리의 6분 영어가 끝났습니다.
[본문] [62] Goodbye.
[직역] 안녕히 가세요
[본문] [63] How human are chatbots?
[직역] 챗봇은 얼마나 인간적인가?
[본문] [64] Do they really know what we are thinking, and should we fear them?
[직역] 그것들이 [우리가 생각하고 있는 것을] 실제로 압니까? 그리고 우리가 그것들을 두려워해야 할까요?
[본문] [65] That's what Rob and Neil are talking about, and they teach you some useful vocabulary along the way.
[직역] 그것이 롭과 닐이 말하고 있는 것입니다. 그리고 진행해 가면서 그들은 당신에게 몇몇 유용한 어휘를 가르칩니다.
pdf 파일은 이곳을 클릭하세요.
https://softca.tistory.com/2373을 클릭하세요.
이 블로그에는 [BBC 6분 영어와 관련하여 매주 다음과 같은 글들이 게시 됩니다
- 단어공부(금주 대본에 나온 주요 어휘) https://softca.tistory.com/2374
- 멀티단어공부(금주 대본에 사용된 멀티단어(구동사, 숙어) 간단 정리) https://softca.tistory.com/2375
- 독해공부(금주 대본의 문장별 해석(직역) 자료) 이 글입니다
- 문장별 문법공부(문장별 문법 설명) 이 글의 포스팅 시점에는 아직 작성되지 않았습니다.
- 금주의 어휘(금주 대본에 나온 금주의 어휘를 집중적으로 정리한 자료) 이 글의 포스팅 시점에는 아직 작성되지 않았습니다.
- 항목별 문법공부(금주 대본에 나온 문법을 주제별/항목별로 정리한 자료) 이 글의 포스팅 시점에는 아직 작성되지 않았습니다.
- 금주의 구동사(금주 대본에 사용된 구동사 상세 정리) 이 글의 포스팅 시점에는 아직 작성되지 않았습니다.
- 금주의 PDF(금주의 PDF 및 기타 다운로드 파일) https://softca.tistory.com/2373
아래의 이미지를 클릭하시면 PDF로 된 대본(Script)를 다운받을 수 있습니다.
[영어 문장 공부] 자료를 처음 보시는 분은 아래의 링크를 클릭하셔서 「공부법」을 먼저 보시기를 권장 드립니다.
[영어문장공부] 학습법 보기