📐
Manhattan Distance (KNN)
Step-by-step Manhattan distance calculations
1. Target Data (নতুন Sample)
2. K Value (Neighbors)
3. Sample Points
1.
2.
Step 1: Manhattan Distance formula ব্যবহার করবো
grid-like data বা অনেকগুলো dimension থাকলে Manhattan distance ব্যবহার করা হয়।
d = |x₁ − x₂| + |y₁ − y₂|
💡 সহজ ব্যাখ্যা:
(x₁, y₁)হলো আমাদের Target Data বা নতুন Point।(x₂, y₂)হলো আগে থেকে দেয়া Sample Data।- আমরা প্রতিটি Sample এর সাথে নতুন Point টির
xএবংyএর পার্থক্য (বিয়োগফল) বের করে তার পরম মান (absolute value) যোগ করে Distance বের করি।
এই formula দিয়ে নতুন point থেকে সব sample এর distance বের করবো।
Step 2: সব sample এর distance বের করি
নতুন point = (3, 7)
Sample 1 → (7, 7) → Bad
💡 ধাপ: প্রথমে X এর পার্থক্য (
|7 − 3| = 4) এবং Y এর পার্থক্য (|7 − 7| = 0) বের করে যোগ করা হলো।Distance
= |7 − 3| + |7 − 7|
= |4| + |0|
= 4 + 0
= 4
Sample 2 → (7, 4) → Bad
💡 ধাপ: প্রথমে X এর পার্থক্য (
|7 − 3| = 4) এবং Y এর পার্থক্য (|4 − 7| = 3) বের করে যোগ করা হলো।Distance
= |7 − 3| + |4 − 7|
= |4| + |-3|
= 4 + 3
= 7
Step 3: Exam Answer Format (Summary Table)
পরীক্ষার খাতায় ঠিক এই ফরম্যাটে টেবিল করে উত্তর লিখলে ভালো নম্বর পাওয়া যাবে:
| Name | X Value | Y Value | Class | Distance |
|---|---|---|---|---|
| Sample 1 | 7 | 7 | Bad | |7−3| + |7−7| = 4 |
| Sample 2 | 7 | 4 | Bad | |7−3| + |4−7| = 7 |
Conclusion (for K = 3)
যেহেতু K = 3, তাই আমরা সবচেয়ে কাছের (কম distance) 3 টি neighbor বা sample নিবো:
- 1Sample 1 — Distance: 4 (Bad)
- 2Sample 2 — Distance: 7 (Bad)
✅ চূড়ান্ত সিদ্ধান্ত (Final Prediction):
উপরের এই 3 টি Nearest Neighbors এর মধ্যে যে Label টি সবচেয়ে বেশিবার আছে (Majority Vote), আমাদের নতুন Point টির Label ও সেটিই হবে!
💡 Rule of Thumb (কোনটা কখন ব্যবহার করবো?)
- Use Euclidean distance if your data is continuous and evenly scaled.
- Use Manhattan distance if your data has many dimensions or is grid-like.
- For most business or simple classification problems, Euclidean distance is more appropriate and widely used.