অনেকদিন ধরে ডিপ লার্নিং এর সাথে থাকার কারণে বিভিন্ন রকম প্যাকেজ বা থার্ড পার্টি সফটওয়্যার ইনস্টল করার প্রয়োজন পড়ে। কিন্তু GPU তে কাজ করতে গেলে মাঝে মাঝেই অনেক সমস্যায় পড়তে হয়। মূলত সমস্যা হয় ভার্শন নিয়ে। এজন্যই ভাবলাম যে একটা নোট লিখে ফেলি। অবশ্য আমি Anaconda ব্যবহার করি। তাই Anaconda তে কিভাবে এই সমস্যা এড়ানো যায় সেটাই আলোচনা করব –
এখানে আমি Anaconda GUI ব্যবহার না করে Anaconda Command Prompt ব্যবহার করব। তাই এই নিয়ম লিনাক্স এবং উইন্ডোজ এই দুই প্ল্যাটফর্মেই কাজ করবে। যদিও আমি ম্যাকিন্টোশ এ চালিয়ে দেখিনি, তবুও আশা করি ম্যাক এও কাজ করবে। যারা উইন্ডোজ বা ম্যাক এ আছে তাদেরকে Start menu থেকে Anaconda Command Prompt ব্যবহার করতে হবে। আর লিনাক্সে তো Terminal ব্যবহার করলেই হবে।
Anaconda তে Environment তৈরি করা
conda create -n testenv python=3.7
conda activate testenv
এখানে testenv হচ্ছে আমরা যে environment টা তৈরি করতে যাচ্চি সেটার নাম এবং python=3.7 এর মাধ্যমে পাইথনের ৩.৭ সংস্করণটি নির্বাচিত করা হয়েছে। আশা করি সবাই Anaconda এর সঠিক Environment সিলেক্ট করেছেন।
GPU সহ Tensorflow ইনস্টল করা
conda install tensorflow-gpu==1.12 cudatoolkit==10.1 cudnn 7.6 h5py
এখানে tensorflow-gpu==1.12 দিয়ে নির্দেশ করা হয়েছে যে এখানে Tensorflow GPU এর ১.১২ সংস্করণটি ইনস্টল করা হবে। cudatoolkit==10.1 দিয়ে cudnn 7.6 নির্দেশ করা হচ্ছে যে cudatoolkit এবং cudnn এর যথাক্রমে ১০.১ এবং ৭.৬ সংস্করনটি ইনস্টল করা হবে।
যদি সবকিছু ঠিকঠাক থাকে তাহলে সফলভাবে ইনস্টল হয়ে যাবে। এখন আমরা যাচাই করব যে এটা সঠিকভাবে ইনস্টল হয়েছে কিনা। এজন্য আমরা জুপিটার নোটবুক ব্যবহার করে নিচের কোডটি লিখতে পারি। যদি কোন import সমস্যা না থাকে তাহলে Tensorflow GPU সহ সঠিকভাবে ইনস্টল হয়েছে।
import tensorflow as tf
sess=tf.session(config=tf.ConfigProto(log_device_placement=true))
tf.test.is_gpu_available(
cuda_only=False,
min_cuda_compute_capability=None
)
GPU সহ PyTorch ইনস্টল করা
conda install pytorch torchvision cuda90 -c pytorch
এখানে cuda90 দিয়ে cuda এর ৯.০ সংস্করণটি বোঝানো হয়েছে।
অথবা PyTorch এর কোন সুনির্দিষ্ট সংস্করণ ইনস্টল করতে হলে সেই সংস্করণটি উল্লেখ করা যেতে পারে।
conda install pytorch=0.4.1 torchvision cuda90 -c pytorch
এখানে PyTorch এর ০.৪.১ সংস্করণটি ইনস্টল হবে।
সঠিকভাবে ইনস্টল হয়েছে কিনা সেটা যাচাই করার জন্য নিচের কোডটি চালিয়ে দেখতে পারি।
import torch
torch.cuda.get_device_name(0)
torch.cuda.is_available()
torch.cuda.device_count()
আপনি যদি GPU এর মেমরি কতটুকু ব্যবহার হয়েছে বা খালি আছে সেটা দেখতে চান, তাহলে এই কোডটুকু দেখুন –
if device.type == 'cuda':
print(torch.cuda.get_device_name(0))
print('Memory Usage:')
print('Allocated:', round(torch.cuda.memory_allocated(0)/1024**3,1), 'GB')
print('Cached: ', round(torch.cuda.memory_cached(0)/1024**3,1), 'GB')
আশা করি সবকিছু সঠিকভাবে ইন্সটল করতে সক্ষম হয়েছেন। ধন্যবাদ সবাইকে।