PyTorch RBLN으로 실행하고 디버깅하기¶
개요¶
이 튜토리얼에서, PyTorch RBLN을 이용해서 실행하고 디버깅하는 예제를 보여드립니다.
설정과 설치¶
- System Requirements:
- Python: 3.9-3.12
- RBLN Driver
- Major Package Requirements:
- Installation Command:
Note
torch-rbln
을 사용하려면 RBLN Portal 계정이 필요합니다.
간단한 예제 돌려보기 (torch.add
)¶
다음의 add.py
는 리벨리온 NPU에서 fp16 dtype의 텐서 연산을 검증하는 예제입니다. cuda
나 cpu
대신 rbln
을 지정하는 것 외에는 GPU 또는 CPU에서 실행하는 코드와 동일합니다.
add.py | |
---|---|
위의 코드를 실행하면 다음의 결과를 기대할 수 있습니다.
RBLN NPU에서 element wise로 동작하는 fp16 torch.add
의 실행 결과가 예상과 일치하는 것을 확인할 수 있습니다.
PyTorch RBLN을 사용해서 추가로 디버깅하기¶
다음 예제는 PDB를 사용하여 결과 tensor의 값과 개별 element의 값을 확인하는 예제입니다.
위의 예제에서 전체 c
텐서의 값과 c[0]
, c[1]
의 값이 모두 예상과 일치하는 것을 볼 수 있습니다.