Uncertainty Management

মূল উদাহরণ (The Core Example):
ধরো, একজন রোগীর জ্বর (Fever) হয়েছে। ডাক্তার সন্দেহ করছেন রোগীর ম্যালেরিয়া (Malaria) হতে পারে। এখানে, ম্যালেরিয়া নিশ্চিত নয়, এটাই অনিশ্চিত জ্ঞান (Uncertain Knowledge)


1. Handling Uncertain Knowledge (অনিশ্চিত জ্ঞান নিয়ে কাজ করা)

Bengali: বাস্তব জীবনে, বেশিরভাগ তথ্যই ১০০% সত্য বা মিথ্যা নয়। একজন রোগীর জ্বর থাকলেই যে তার ম্যালেরিয়া হবে, তা নয়। হতে পারে টাইফয়েড, সাধারণ সর্দি-কাশি, বা অন্য কিছু। তাই, আমরা সাধারণ True/False লজিক ব্যবহার করতে পারি না। আমাদের অনিশ্চয়তাকে ম্যানেজ করার একটি উপায় দরকার, এবং সেই জায়গাতেই সম্ভাব্যতা (Probability) কাজে আসে।[In real life, most information is not 100% true or false. A patient has fever; it doesn’t always mean they have malaria. It could be typhoid, a common cold, or something else. So, we can’t use standard True/False logic. We need a way to handle this uncertainty, which is where probability comes in.]


২. Uncertainty and Rational Decision (অনিশ্চয়তা এবং যৌক্তিক সিদ্ধান্ত)

Bengali: যৌক্তিক সিদ্ধান্ত হল আমাদের কাছে থাকা অনিশ্চিত জ্ঞানের ভিত্তিতে নেওয়া সর্বোত্তম সিদ্ধান্ত। উদাহরণস্বরূপ, একজন ডাক্তার ম্যালেরিয়ার উচ্চ সম্ভাবনা এবং এটি না চিকিৎসা করার উচ্চ ঝুঁকির ভিত্তিতে ম্যালেরিয়ার ওষুধ শুরু করার সিদ্ধান্ত নেন। অনিশ্চয়তা থাকা সত্ত্বেও, রোগীর চিকিৎসা করা হল যৌক্তিক পছন্দ। [A rational decision is the best possible decision given the uncertain knowledge we have. For example, a doctor decides to start malaria medicine based on the high probability of malaria and the high cost (risk) of not treating it. Even if there’s uncertainty, the rational choice is to treat the patient.]


৩. Probabilistic Reasoning (সম্ভাবনামূলক যুক্তি)

Bengali: এটি হল অনিশ্চিত জ্ঞান নিয়ে কাজ করতে সম্ভাবনার তত্ত্ব ব্যবহার করার সাধারণ পদ্ধতি। “রোগীর ম্যালেরিয়া হয়েছে” বলার বদলে আমরা বলি “রোগীর ম্যালেরিয়া হওয়ার সম্ভাবনা ০.৭০ (বা ৭০%)”। [This is the general field of using probability theory to handle uncertain knowledge. Instead of saying “The patient has malaria,” we say “The probability that the patient has malaria is 0.70 (or 70%).”]


৪. Conditional Probability (শর্তসাপেক্ষ সম্ভাবনা)

This is the probability of an event given that another event has already occurred. It is written as P(A | B) and read as “Probability of A given B.”

  • P(A | B) = Probability of A happening, given B is true.

Our Example:

  • B: ঘটনা হল “রোগীর জ্বর আছে” (The patient has a fever).
  • A: ঘটনা হল “রোগীর ম্যালেরিয়া হয়েছে” (The patient has malaria).

তাহলে, P(Malaria | Fever) মানে হল: “জ্বর থাকা সত্ত্বেও, রোগীর ম্যালেরিয়া হওয়ার সম্ভাবনা কত?” অর্থাৎ, জ্বরকে আমরা একটা সাক্ষ্য (Evidence) হিসেবে ধরেছি।


৫. Bayes’ Rule (বেইজের সূত্র)

English: This is a fundamental theorem in probability that allows us to “reverse” conditional probabilities. We might know P(Fever | Malaria) but what we really want is P(Malaria | Fever). Bayes’ Rule helps us calculate that.

Formula (সূত্র):
P(A | B) = [ P(B | A) * P(A) ] / P(B)

Bengali Terms:

  • P(A | B): Posterior Probability (পরবর্তী সম্ভাবনা) – এটাই আমরা বের করতে চাই।
  • P(B | A): Likelihood (সম্ভাব্যতা) – আমরা জানি A হলে B হওয়ার সম্ভাবনা কত।
  • P(A): Prior Probability (পূর্ব সম্ভাবনা) – আমাদের প্রাথমিক ধারণা যে A ঘটবে।
  • P(B): Marginal Probability/Marginal Likelihood (প্রান্তিক সম্ভাবনা) – B হবার সামগ্রিক সম্ভাবনা।

Our Example with Values:

  • P(Malaria): Prior – ম্যালেরিয়া হওয়ার সাধারণ সম্ভাবনা (যেকোনো মানুষের), ধরলাম = ০.০১ (১%)।
  • P(Fever | Malaria): Likelihood – ম্যালেরিয়া হলে জ্বর হওয়ার সম্ভাবনা, ধরলাম = ০.৯০ (৯০%)। এটা আমরা মেডিকেল ডেটা থেকে জানি।
  • P(Fever): Marginal – শুধু জ্বর হওয়ার সামগ্রিক সম্ভাবনা। এটা হিসাব করতে হবে।

P(Fever) হিসাবের উপায়:
জ্বর হতে পারে ম্যালেরিয়া থেকে, অথবা অন্য কিছু (Other) থেকে।
So, P(Fever) = P(Fever | Malaria) * P(Malaria) + P(Fever | Other) * P(Other)

  • P(Other) = 1 – P(Malaria) = 0.99
  • P(Fever | Other) = অন্য কোনো কারণে জ্বর হওয়ার সম্ভাবনা, ধরলাম = ০.১ (১০%)।

So, P(Fever) = (0.90 * 0.01) + (0.10 * 0.99) = 0.009 + 0.099 = 0.108

Now, Apply Bayes’ Rule:
P(Malaria | Fever) = [ P(Fever | Malaria) * P(Malaria) ] / P(Fever)
= [ 0.90 * 0.01 ] / 0.108
= 0.009 / 0.108
0.0833 (or 8.33%)

ব্যাখ্যা: এর মানে হল, শুধুমাত্র জ্বর দেখে বলতে পারি, রোগীর আসলে ম্যালেরিয়া হওয়ার সম্ভাবনা মাত্র ৮.৩৩%। যদিও ম্যালেরিয়া হলে জ্বর হওয়ার সম্ভাবনা ৯০%, তারপরও জ্বর থাকলেই ম্যালেরিয়া হওয়ার সম্ভাবনা কম। কারণ, সাধারণ জনগণের মধ্যে ম্যালেরিয়ার হারই খুব কম (Prior কম)।


৬. Probabilistic Inference using Bayes’ Rule (বেইজ সূত্র ব্যবহার করে সম্ভাবনামূলক অনুমান)

a. General Method (Simple Cases) – সাধারণ পদ্ধতি (সাধারণ ক্ষেত্র)

This is exactly what we did above. We used Bayes’ Rule to update our belief about a hypothesis (Malaria) based on a single piece of evidence (Fever).

Steps (ধাপগুলো):

  1. পরিচয় করো (Identify): Hypothesis (Malaria) এবং Evidence (Fever) চিহ্নিত করো।
  2. মান বসাও (Assign Values): Prior P(Malaria) এবং Likelihood P(Fever | Malaria) বসাও। P(Fever) হিসাব করো।
  3. বেইজ সূত্র প্রয়োগ করো (Apply Bayes’ Rule): সূত্রে মানগুলো বসিয়ে Posterior P(Malaria | Fever) বের করো।

b. Combining Evidence (সাক্ষ্যপ্রমাণ একত্রিত করা)

English: This is a more powerful use of Bayes’ Rule. What if we have more than one evidence? For example, besides fever, the patient also has শরীর কাঁপানো (Chills). Now we want P(Malaria | Fever ∧ Chills). (∧ means AND).

Bengali: এটি বেইজ সূত্রের আরও শক্তিশালী ব্যবহার। যদি একাধিক সাক্ষ্য থাকে তখন কী করব? যেমন, জ্বর ছাড়াও রোগীর শরীর কাঁপানি আছে। এখন আমরা চাই P(Malaria | Fever ∧ Chills).

Method (পদ্ধতি): আমরা একই বেইজ সূত্র ব্যবহার করি, কিন্তু এখন Evidence হিসেবে একাধিক জিনিস থাকবে।

Our Extended Example:

  • New Evidence: Chills (শরীর কাঁপানো)
  • We need: P(Malaria | Fever, Chills)
  • We know from data:
    • P(Chills | Malaria) = 0.95 (ম্যালেরিয়া হলে শরীর কাঁপানির সম্ভাবনা ৯৫%)
    • P(Chills | Other) = 0.05 (অন্য কোনো কারণে শরীর কাঁপানির সম্ভাবনা ৫%)

এখন, Bayes’ Rule হবে এরকম:
P(Malaria | Fever, Chills) = [ P(Fever, Chills | Malaria) * P(Malaria) ] / P(Fever, Chills)

সমস্যা: P(Fever, Chills | Malaria) এবং P(Fever, Chills) হিসাব করা কঠিন। Fever এবং Chills পরস্পর সম্পর্কিত (একই রোগের লক্ষণ)।

সমাধান (Naïve Bayes Assumption): আমরা যদি ধরে নিই Fever এবং Chills একে অপরের থেকে স্বাধীন (Independent) ম্যালেরিয়া হওয়ার শর্তে, তাহলে হিসাবটা সহজ হয়ে যায়।

স্বাধীনতা অনুমান করলে:

  • P(Fever, Chills | Malaria) = P(Fever | Malaria) * P(Chills | Malaria) = 0.90 * 0.95 = 0.855

একইভাবে,

  • P(Fever, Chills | Other) = P(Fever | Other) * P(Chills | Other) = 0.10 * 0.05 = 0.005

এখন, P(Fever, Chills) হিসাব করা যাবে:
P(Fever, Chills) = [P(Fever, Chills | Malaria) * P(Malaria)] + [P(Fever, Chills | Other) * P(Other)]
= (0.855 * 0.01) + (0.005 * 0.99)
= 0.00855 + 0.00495 = 0.0135

Now, Apply Bayes’ Rule:
P(Malaria | Fever, Chills) = [ 0.855 * 0.01 ] / 0.0135
= 0.00855 / 0.0135
0.633 (or 63.3%)

ব্যাখ্যা: এটাই হল Combining Evidence-এর শক্তি! শুধু জ্বর দেখে সম্ভাবনা ছিল মাত্র ৮.৩%। কিন্তু যখন আমরা জ্বর এবং শরীর কাঁপানি দুটো সাক্ষ্যই একসাথে বিবেচনা করলাম, তখন ম্যালেরিয়া হওয়ার সম্ভাবনা বেড়ে হয়ে গেল ৬৩.৩%। প্রতিটি নতুন সাক্ষ্য আমাদের হাইপোথিসিস সম্পর্কে নিশ্চিততা বাড়াতে সাহায্য করে।


প্রাথমিক অবস্থা (Initial Setup)

ধরো তোমার কাছে ২টি কয়েন আছে:

  • কয়েন A: নরমাল কয়েন, P(Head) = 0.5, P(Tail) = 0.5
  • কয়েন B: বায়াসড কয়েন, P(Head) = 0.9, P(Tail) = 0.1

এখন, আমি এলোমেলোভাবে একটি কয়েন বাছাই করলাম এবং সেটা দিয়ে একটি টস করলাম

৩টি ভেরিয়েবল (3 Variables)

  1. C = কোন কয়েন বাছাই করেছি (Coin Type)
  • C = A (Fair Coin)
  • C = B (Biased Coin)
  1. T₁ = প্রথম টসের ফলাফল (First Toss Result)
  • T₁ = H (Head)
  • T₁ = T (Tail)
  1. T₂ = দ্বিতীয় টসের ফলাফল (Second Toss Result)
  • T₂ = H (Head)
  • T₂ = T (Tail)

Prior Probability (পূর্ব সম্ভাবনা)

ধরো, আমি এলোমেলোভাবে কয়েন বাছাই করি:

  • P(C = A) = 0.5 (৫০% সম্ভাবনা নরমাল কয়েন)
  • P(C = B) = 0.5 (৫০% সম্ভাবনা বায়াসড কয়েন)

Conditional Probabilities (শর্তসাপেক্ষ সম্ভাবনা)

কয়েন A (Fair) এর জন্য:

  • P(H | A) = 0.5
  • P(T | A) = 0.5

কয়েন B (Biased) এর জন্য:

  • P(H | B) = 0.9
  • P(T | B) = 0.1

Bayes’ Rule Application (বেইজ সূত্রের প্রয়োগ)

Case 1: Single Evidence (একটি সাক্ষ্য)

প্রশ্ন: আমি একটি টস করলাম এবং Head পেলাম। এখন আমি জানতে চাই, আমি বায়াসড কয়েন (B) ব্যবহার করেছি তার সম্ভাবনা কত?

Bayes’ Rule: P(B | H) = [P(H | B) × P(B)] / P(H)

গণনা:

  • P(H | B) = 0.9
  • P(B) = 0.5
  • P(H) = P(H | A)×P(A) + P(H | B)×P(B) = (0.5×0.5) + (0.9×0.5) = 0.25 + 0.45 = 0.7

P(B | H) = (0.9 × 0.5) / 0.7 = 0.45 / 0.7 ≈ 0.6429 (64.29%)

ব্যাখ্যা: একটি Head দেখার পর, বায়াসড কয়েন ব্যবহার করার সম্ভাবনা ৫০% থেকে বেড়ে ৬৪.২৯% হয়ে গেছে।


Case 2: Combining Evidence (সাক্ষ্য একত্রিত করা)

প্রশ্ন: আমি দুইটি টস করলাম এবং দুইটিতেই Head পেলাম। এখন আমি জানতে চাই, আমি বায়াসড কয়েন (B) ব্যবহার করেছি তার সম্ভাবনা কত?

এখন আমাদের ৩টি ভেরিয়েবল: C, T₁, T₂

Bayes’ Rule: P(B | H₁, H₂) = [P(H₁, H₂ | B) × P(B)] / P(H₁, H₂)

গণনা:

ধাপ ১: P(H₁, H₂ | B)
যেহেতু টসগুলো Independent:
P(H₁, H₂ | B) = P(H | B) × P(H | B) = 0.9 × 0.9 = 0.81

ধাপ ২: P(H₁, H₂ | A)
P(H₁, H₂ | A) = P(H | A) × P(H | A) = 0.5 × 0.5 = 0.25

ধাপ ৩: P(H₁, H₂)
P(H₁, H₂) = P(H₁, H₂ | A)×P(A) + P(H₁, H₂ | B)×P(B)
= (0.25 × 0.5) + (0.81 × 0.5) = 0.125 + 0.405 = 0.53

ধাপ ৪: P(B | H₁, H₂)
P(B | H₁, H₂) = (0.81 × 0.5) / 0.53 = 0.405 / 0.53 ≈ 0.7642 (76.42%)


Case 3: Mixed Evidence (মিশ্র সাক্ষ্য)

প্রশ্ন: প্রথম টসে Head এবং দ্বিতীয় টসে Tail পেলাম। এখন বায়াসড কয়েন ব্যবহার করার সম্ভাবনা কত?

Bayes’ Rule: P(B | H₁, T₂) = [P(H₁, T₂ | B) × P(B)] / P(H₁, T₂)

গণনা:

ধাপ ১: P(H₁, T₂ | B)
P(H₁, T₂ | B) = P(H | B) × P(T | B) = 0.9 × 0.1 = 0.09

ধাপ ২: P(H₁, T₂ | A)
P(H₁, T₂ | A) = P(H | A) × P(T | A) = 0.5 × 0.5 = 0.25

ধাপ ৩: P(H₁, T₂)
P(H₁, T₂) = P(H₁, T₂ | A)×P(A) + P(H₁, T₂ | B)×P(B)
= (0.25 × 0.5) + (0.09 × 0.5) = 0.125 + 0.045 = 0.17

ধাপ ৪: P(B | H₁, T₂)
P(B | H₁, T₂) = (0.09 × 0.5) / 0.17 = 0.045 / 0.17 ≈ 0.2647 (26.47%)


সারসংক্ষেপ (Summary)

Evidence (সাক্ষ্য)P(Biased Coin)ব্যাখ্যা
কোনো সাক্ষ্য নেই50.00%প্রাথমিক অবস্থা
১টি Head64.29%বায়াসড কয়েনের সম্ভাবনা বাড়ল
২টি Head76.42%আরও শক্তিশালী সাক্ষ্য, সম্ভাবনা আরও বাড়ল
১ Head, ১ Tail26.47%মিশ্র ফলাফল, বায়াসড কয়েনের সম্ভাবনা কমল

মূল শিক্ষা:

  • বেইজ সূত্র আমাদেরকে নতুন evidence পাওয়ার পর আমাদের belief আপডেট করতে সাহায্য করে
  • একাধিক evidence combine করলে আমাদের confidence বাড়ে
  • ৩টি variable (C, T₁, T₂) নিয়ে কাজ করলেও Bayes’ Rule একইভাবে কাজ করে

Index