যেকোন নিউরাল নেটওয়ার্কের (Neural Network) ক্ষেত্রেই অ্যাকটিভেশন ফাংশন অনেক গুরুত্বপূর্ণ ভূমিকা পালন করে থাকে। অ্যাকটিভেশন নাম দেখেই বোঝা যাচ্ছে এই ফাংশনের কাজ হচ্ছে কোন কিছু ট্রিগার করা। হ্যা, সেটাই। অ্যাকটিভেশন ফাংশন কোন একটি নিউরন (Neuron) বা নোড (Node) কে ট্রিগার করে। অ্যাকটিভেশন ফাংশনই নির্ধারণ করে দেয় যে এই নোডের তথ্য পরবর্তী নোডে পাঠানো হবে কিনা।

একটা বাস্তব উধারহরণের সাহায্যে বিষয়টা একটু আলোচনা করা যাক। আমরা প্রত্যেকেই কোন না কোন পরীক্ষা দিয়ে উত্তীর্ণ হয়েছি। যদি সর্বমোট নম্বরকে নিউরন ধরা হয়ে আর পাস নাম্বারকে অ্যাকটিভেশন ফাংশন ধরা হয় তাহলে বিষয়টা কি দাঁড়ায়? আমি ক্লাস ওয়ান থেকে টু তে তখনই যেতে পারব যখন আমি পাস নম্বরের বেশি পাব, অর্থাৎ পাস নম্বরকে ট্রিগার করতে পারব। নিউরাল নেটওয়ার্কের ক্ষেত্রেও বিষয়টা একই। অ্যাকটিভেশন ফাংশন এখানে একটা ফিল্টার (Filter) হিসেবে কাজ করে এবং নির্ধারণ করে দেয় যে ঐ নোডের তথ্য পরবর্তী নোডে সঞ্চালিত হবে কিনা।

যাদের ডায়োড বা ট্রানজিস্টর সম্পর্কে ধারণা আছে, তারা হয়তো জানেন প্রত্যেক n-p-n অথবা p-n-p জাংশনে একটা ডিপ্লেশন লেয়ার (Diplation layer) থাকে যার কাজ হচ্ছে দুইটা জাংশনের মধ্যে অন্তরক (Insulator) হিসেবে কাজ করা। একটি নির্দিষ্ট পরিমাণ ভোল্টেজ পেলে সেটা সক্রিয়(Active) হয়ে ওঠে অন্যান্য ক্ষেত্রে নিষ্ক্রিয়(Inactive) থাকে, যখন এর মধ্যে দিয়ে বিদ্যুৎ প্রবাহিত হয় তখন এই ঘটনাকে ফরোয়ার্ড বায়াস (Forward Bias) বলে। মূলত এই ডিপ্লেশন লেয়ারের ফরোয়ার্ড বায়াসই অ্যাকটিভেশন ফাংশন হিসেবে কাজ করে।

আমরা যদি খুব সাধারণ একটা অ্যাকটিভেশন ফাংশনকে উপস্থাপন করতে যাই তাহলে এভাবে প্রকাশ করতে পারি –

A=\sum\left(w\ast v\right)+b

এখানে A= অ্যাকটিভেশন ফাংশন, w=ওয়েট (Weight), v=ভ্যালু (Value) এবং b=বায়াস (bias)

অর্থাৎ আমরা নিউরনের ভাল্যু এবং ওয়েটের সাথে বায়াস যোগ করে নিজেদের মত  একটা অ্যাকটিভেশন ফাংশন তৈরি করে নিতে পারি।

অ্যাকটিভেশন ফাংশনের ধরণ (Types of Activation Function)

অ্যাকটিভেশন ফাংশন লিনিয়ার(Linear) এবং নন লিনিয়ার (Non linear) দুপ্রকারই হতে পারে। কিন্তু অ্যাকটিভেশন ফাংশন হিসেবে সাধারণত লিনিয়ার ফাংশন ব্যবহার করা হয়না। কারণ, লিনিয়ার ফাংশনে মূলত একই জিনিসের পুনরাবৃত্তি ঘটে।

বিভিন্ন প্রকার কাজের প্রয়োজনে বিভিন্ন প্রকারের অ্যাকটিভেশন ফাংশন ব্যবহার করা হয়ে থাকে। কখন কোন অ্যাকটিভেশন ফাংশন ব্যবহার করব সেটা নির্ভর করে কি প্রয়োজনে আমরা ব্যবহার করব সেটার উপর।

নিচে কিছু অ্যাকটিভেশন ফাংশনের

স্টেপ ফাংশন (Step Function)

রেলু ফাংশন (Relu Function)

সিগময়েড ফাংশন (Sigmoid Function)

ট্যানেএইচ ফাংশন (Tanh Function)

সফট্ম্যাক্স ফাংশন (Softmax Function)