사용가능한 gpu의 list를 보려면 다음과 같이 입력해서 확인합니다.
후에 출력되는 name부분을 보시면 됩니다.
from tensorflow.python.client import device_lib
print(device_lib.list_local_devices())
현재 2개의 gpu를 가지고 있다고 생각하면 cpu:0, gpu:0, gpu:1로 나타낼 수 있습니다.
os.environ["CUDA_DEVICE_ORDER"]="PCI_BUS_ID";
# 1번째 gpu를 사용하고 싶다면,
os.environ["CUDA_VISIBLE_DEVICES"]="1";
더해서
with K.tf.device('/gpu:1'):
~
model.fit(~)
~
의 방법도 있습니다.
'# Machine Learning > 글 공부' 카테고리의 다른 글
클래스 불균형, UnderSampling & OverSampling (0) | 2019.09.06 |
---|---|
keras, Model RAM 놓지 않는 현상 (2) | 2019.08.20 |
(Ubuntu) Ndivia driver 삭제, cuda 삭제 (0) | 2019.07.11 |
(Neural Network) train 후 validation data를 어떻게 처리해야 할까? (0) | 2019.07.02 |
Activation function에 맞는 initilization parameters (0) | 2019.05.20 |