Skip to content

beginner_source/nlp/pytorch_tutorial.py 번역 #573

New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Merged
merged 3 commits into from
Sep 14, 2022

Conversation

2kkeullim
Copy link
Contributor

beginner_source/nlp/pytorch_tutorial.py 번역

라이선스 동의

변경해주시는 내용에 BSD 3항 라이선스가 적용됨을 동의해주셔야 합니다.

더 자세한 내용은 기여하기 문서를 참고해주세요.

동의하시면 아래 [ ][x]로 만들어주세요.

  • 기여하기 문서를 확인하였으며, 본 PR 내용에 BSD 3항 라이선스가 적용됨에 동의합니다.

관련 이슈 번호

이 Pull Request와 관련있는 이슈 번호를 적어주세요.

이슈 또는 PR 번호 앞에 #을 붙이시면 제목을 바로 확인하실 수 있습니다. (예. #999 )

PR 종류

이 PR에 해당되는 종류 앞의 [ ][x]로 변경해주세요.

  • 오탈자를 수정하거나 번역을 개선하는 기여
  • 번역되지 않은 튜토리얼을 번역하는 기여
  • 공식 튜토리얼 내용을 반영하는 기여
  • 위 종류에 포함되지 않는 기여

PR 설명

이 PR로 무엇이 달라지는지 대략적으로 알려주세요.

번역되지 않은 문서를 번역했습니다.
원본 문서 주석 부분에 restructuredtext 문법으로 작성해
restructuredtext 문법이 그대로 출력되는 문제가 있긴 하지만
일단은 원본 그대로 두었습니다.

beginner_source/nlp/pytorch_tutorial.py 번역
@hyoyoung hyoyoung added the 컨트리뷰톤 오픈소스 컨트리뷰톤 관련 이슈/PR label Aug 22, 2022
Copy link
Contributor

@kimtaehyeong kimtaehyeong left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

잘 번역해주셨습니다. 크게 두 군데 확인했습니다.

# vector, indexing into the vector gives you a scalar. If you have a
# matrix, indexing into the matrix gives you a vector. If you have a 3D
# tensor, then indexing into the tensor gives you a matrix!
# 그건 그렇고 3D tensor는 무엇일까요? 이렇게 생각해 보세요.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

그건 그렇고 라는 표현보다 그냥 3D tensor는 무엇일까요? 라고 번역하는게 어떤가요?

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

anyway 의 느낌을 살리고 싶어 그건 그렇고라고 번역했는데 이상한가요??

Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

그렇다면 '그건 그렇고'보다는
'도대체 3D tensor는 무엇인가요?' 정도는 어떨까요?

print(x.view(2, -1))


######################################################################
# Computation Graphs and Automatic Differentiation
# 계산 그래프(Computation Graph) 와 자동미분(Automatic Differentiation)
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

자동 미분 띄어쓰기가 들어가야 될 것 같습니다.

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

반영했습니다! 감사합니당

@kil-jung-keong
Copy link
Contributor

번역 잘 해주신것 같습니다. 크게 수정하실 부분은 없어보입니다.

Copy link
Contributor

@95hj 95hj left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

LGTM!

Copy link
Member

@hyoyoung hyoyoung left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

긴 문서를 매끄럽게 번역하느라 고생 많으셨습니다
몇가지 수정사항 부탁드립니다

# vector, indexing into the vector gives you a scalar. If you have a
# matrix, indexing into the matrix gives you a vector. If you have a 3D
# tensor, then indexing into the tensor gives you a matrix!
# 그건 그렇고 3D tensor는 무엇일까요? 이렇게 생각해 보세요.
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

그렇다면 '그건 그렇고'보다는
'도대체 3D tensor는 무엇인가요?' 정도는 어떨까요?

print(V[0])
# Get a Python number from it
# 벡터로부터 Python 넘버 얻기
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

넘버는 숫자가 더 어울리지 않을까요?

# torch.tensor([[1, 2], [3, 4]])으로 만들 수 있습니다. (이 때, 리스트의 모든 원소는 integer)
# 또한 ``dtype=torch.data_type`` 을 이용해 데이터 타입을 지정할 수도 있습니다.
# 추가적인 데이터 타입에 대해서는 문서로 확인할 수 있으며,
# Float과 Long이 가장 일반적입니다.
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

'Float과' 보다는 'Float와'를 더 많이 쓰지 않나요?

# ~~~~~~~~~~~~~~~~~~~~~~~
#
# You can operate on tensors in the ways you would expect.
# tensor는 당신이 원하는 방식으로 연산할 수 있습니다.
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

'당신이'는 빼도 좋을듯합니다

# expand beyond just mathematical operations.
# `문서 <https://pytorch.org/docs/torch.html>`__ 에서
# 사용할 수 있는 엄청난 수의 연산들의 전체 목록을 볼 수 있습니다.
# 그것들은 단순한 수학적인 연산을 뛰어넘습니다.
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

'그것들은'을 빼고 '해당 연산 목록은'을 넣는 것도 좋을 듯 합니다

# use, because many neural network components expect their inputs to have
# a certain shape. Often you will need to reshape before passing your data
# to the component.
# .view() 메소드를 사용해 tensor의 구조를 바꿔봅시다. 많은 신경망 컴포넌트들은
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

컴포넌트보다는 구성 요소가 더 쉬운 단어일듯합니다

# operations, it contains enough information to compute derivatives. This
# probably sounds vague, so let's see what is going on using the
# fundamental flag ``requires_grad``.
# 계산 그래프의 개념은 직접 역전파 변화도(gradient)를 쓰지 않아도 되도록 하여
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

'쓰지 않아도 되도록 하여'는 문장이 조금 어색해보입니다.

계산 그래프의 개념은 직접 역전파 변화도(gradient)를 쓸 필요가 없게 해주며

# other operation, etc.)
# 먼저 프로그래머의 관점에서 생각해봅시다. 위에서 우리가 만든
# torch.Tensor 오브젝트에는 무엇이 저장되어 있을까요? 분명히 데이터와
# 구조, 그리고 몇 가지 다른 것들이 있을 겁니다. 하지만 2개의 tensor를
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

A, B 그리고 C 라면
번역시에는 그리고는 빼도 좋을듯합니다
A, B, C로 써도 번역시에는 쉽게 읽힙니다

# a file, it wasn't the result of a multiplication or exponential or
# whatever. And if you keep following z.grad_fn, you will find yourself at
# x and y.
# 즉 Tensor는 무엇이 그들을 만들었는지 압니다. z는 Tensor가 파일에서
Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

즉 Tensor는 무엇이 그들을 만들었는지 압니다

즉 Tensor는 무엇으로 그들이 만들어졌는지 압니다.

@2kkeullim 2kkeullim requested a review from hyoyoung September 14, 2022 14:27
Copy link
Member

@hyoyoung hyoyoung left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

good

@hyoyoung hyoyoung merged commit c198460 into PyTorchKorea:master Sep 14, 2022
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
컨트리뷰톤 오픈소스 컨트리뷰톤 관련 이슈/PR
Projects
None yet
Development

Successfully merging this pull request may close these issues.

5 participants