آج کل مصنوعی ذہانت (AI) جدید زندگی کا ایک معمولی حصہ بن چکی ہے، جو کاروبار سے لے کر صحت کے شعبے تک ہر میدان میں نظر آتی ہے۔ تاہم، کم ہی لوگ جانتے ہیں کہ مصنوعی ذہانت کی ترقی کی تاریخ بیسویں صدی کے وسط سے شروع ہوئی اور کئی اتار چڑھاؤ سے گزرتے ہوئے آج کی شاندار کامیابیوں تک پہنچی ہے۔

یہ مضمون INVIAI مصنوعی ذہانت کی تشکیل اور ترقی کی تاریخ کا تفصیلی جائزہ پیش کرے گا، ابتدائی خیالات سے لے کر “مصنوعی ذہانت کی سردیاں” کے مشکل ادوار، اور پھر گہری تعلیم کی انقلاب اور تخلیقی AI کی لہر جو 2020 کی دہائی میں پھوٹ پڑی۔

1950 کی دہائی: مصنوعی ذہانت کا آغاز

1950 کی دہائی کو مصنوعی ذہانت کے شعبے کی باضابطہ شروعات سمجھا جاتا ہے۔ 1950 میں، ریاضی دان ایلن ٹورنگ نے "Computing Machinery and Intelligence" کے عنوان سے ایک مقالہ شائع کیا، جس میں انہوں نے مشین کی سوچنے کی صلاحیت کو جانچنے کے لیے ایک مشہور تجربہ پیش کیا – جسے بعد میں ٹورنگ ٹیسٹ کہا گیا۔ یہ خیال پیش کیا گیا کہ کمپیوٹر انسان کی طرح "سوچ" سکتے ہیں، جو AI کے نظریہ کی بنیاد بنا۔

1956 میں، اصطلاح “Artificial Intelligence” (مصنوعی ذہانت) باضابطہ طور پر متعارف ہوئی۔ اسی سال گرمیوں میں، کمپیوٹر سائنسدان جان میکارتھی (ڈارٹماؤتھ یونیورسٹی) نے مارون منسکی، نیتھنئیل راچسٹر (IBM) اور کلاؤڈ شینن کے ساتھ مل کر ڈارٹماؤتھ یونیورسٹی میں ایک تاریخی ورکشاپ کا انعقاد کیا۔

میکارتھی نے اسی ورکشاپ کے لیے "مصنوعی ذہانت" کی اصطلاح تجویز کی، اور 1956 کا ڈارٹماؤتھ ایونٹ عام طور پر AI کے شعبے کی پیدائش کے طور پر دیکھا جاتا ہے۔ یہاں، جرات مندانہ سائنسدانوں نے اعلان کیا کہ “تعلیم یا ذہانت کے تمام پہلوؤں کو مشینوں کے ذریعے نقل کیا جا سکتا ہے”، جو اس نئے شعبے کے لیے بلند حوصلہ افزائی کا باعث بنا۔

1950 کی دہائی کے آخر میں کئی AI کی ابتدائی کامیابیاں دیکھنے میں آئیں۔ 1951 میں، ابتدائی AI پروگرامز فرینٹی مارک I کمپیوٹر پر چلائے گئے – خاص طور پر کرسٹوفر اسٹریچی کا چیکرز کھیلنے والا پروگرام اور ڈیٹریچ پرنز کا شطرنج کھیلنے والا پروگرام، جو پہلی بار کمپیوٹر کو ذہنی کھیل کھیلنے کے قابل بناتے تھے۔

1955 میں، آرتھر سیموئل نے IBM میں ایک چیکرز کھیلنے والا پروگرام تیار کیا جو تجربے سے خود سیکھ سکتا تھا، جو مشین لرننگ کا پہلا ابتدائی نظام تھا۔ اسی دوران، ایلن نیویل، ہربرٹ سائمن اور ان کے ساتھیوں نے Logic Theorist (1956) تیار کیا – جو خودکار طور پر ریاضی کے تھیورمز کو ثابت کر سکتا تھا، اور اس سے ظاہر ہوا کہ مشینیں منطقی استدلال کر سکتی ہیں۔

الگورتھمز کے علاوہ، AI کے لیے مخصوص پروگرامنگ زبانیں اور اوزار بھی 1950 کی دہائی میں وجود میں آئے۔ 1958 میں، جان میکارتھی نے Lisp زبان ایجاد کی – جو خاص طور پر AI کے لیے ڈیزائن کی گئی تھی اور جلد ہی AI ڈیولپرز میں مقبول ہو گئی۔ اسی سال، ماہر نفسیات فرینک روزن بلیٹ نے Perceptron متعارف کروایا – پہلا مصنوعی نیورل نیٹ ورک جو ڈیٹا سے سیکھ سکتا تھا، اور جدید نیورل نیٹ ورکس کی بنیاد بنا۔

1959 میں، آرتھر سیموئل نے پہلی بار “machine learning” (مشین لرننگ) کی اصطلاح استعمال کی، ایک اہم مقالے میں جس میں انہوں نے بتایا کہ کمپیوٹر کو کس طرح پروگرام کیا جا سکتا ہے تاکہ وہ سیکھے اور اپنی شطرنج کھیلنے کی صلاحیت کو بہتر بنائے، یہاں تک کہ انسانی پروگرامرز کو بھی پیچھے چھوڑ دے۔ یہ ترقیات زبردست امیدوں کی علامت تھیں: ماہرین کا خیال تھا کہ چند دہائیوں میں مشینیں انسانوں جیسی ذہانت حاصل کر لیں گی۔

1950 کی دہائی - مصنوعی ذہانت کا آغاز

1960 کی دہائی: ابتدائی پیش رفت

1960 کی دہائی میں، AI نے کئی اہم منصوبوں اور ایجادات کے ساتھ ترقی جاری رکھی۔ کئی معروف یونیورسٹیوں (MIT، اسٹینفورڈ، کارنیگی میلون...) میں AI لیبارٹریز قائم ہوئیں، جنہوں نے تحقیق کے لیے دلچسپی اور فنڈنگ حاصل کی۔ کمپیوٹر اس وقت مزید طاقتور ہو گئے، جس سے AI کے پیچیدہ نظریات کو آزمانا ممکن ہوا۔

ایک نمایاں کامیابی پہلا چیٹ بوٹ پروگرام تھا۔ 1966 میں، جوزف وائزن بام نے MIT میں ELIZA تیار کی، جو صارف کے ساتھ ایک نفسیاتی معالج کے انداز میں بات چیت کرتی تھی۔ ELIZA کا پروگرام سادہ تھا (کلیدی الفاظ کی شناخت اور نمونہ جوابات پر مبنی)، لیکن حیرت انگیز طور پر بہت سے لوگ سمجھ بیٹھے کہ ELIZA واقعی "سمجھتی" ہے اور جذبات رکھتی ہے۔ ELIZA کی کامیابی نے نہ صرف جدید چیٹ بوٹس کے لیے راہ ہموار کی بلکہ یہ سوال بھی اٹھایا کہ انسان مشینوں کو جذبات کیسے منسوب کرتے ہیں۔

اسی دوران، پہلا ذہین روبوٹ بھی سامنے آیا۔ 1966 سے 1972 کے دوران، اسٹینفورڈ ریسرچ انسٹی ٹیوٹ (SRI) نے Shakey تیار کیا – پہلا موبائل روبوٹ جو خود آگاہی اور عمل کی منصوبہ بندی کر سکتا تھا، نہ کہ صرف سادہ احکامات پر عمل کرتا تھا۔ Shakey میں سینسرز اور کیمرے لگائے گئے تھے تاکہ وہ ماحول میں خود حرکت کر سکے اور بنیادی کام جیسے راستہ تلاش کرنا، رکاوٹیں ہٹانا، اور ڈھلوان پر چڑھنا انجام دے سکے۔ یہ روبوٹ کمپیوٹر وژن، قدرتی زبان کی پروسیسنگ، اور منصوبہ بندی کو یکجا کرنے والا پہلا نظام تھا، جس نے بعد میں روبوٹکس AI کی بنیاد رکھی۔

امریکن ایسوسی ایشن آف آرٹیفیشل انٹیلی جنس (AAAI) بھی اسی دور میں قائم ہوئی (اس کا پیش رو IJCAI 1969 کانفرنس اور 1980 میں AAAI کی تنظیم تھی)، جس کا مقصد AI محققین کو یکجا کرنا تھا، اور یہ ظاہر کرتا ہے کہ AI کمیونٹی تیزی سے بڑھ رہی تھی۔

اس کے علاوہ، 1960 کی دہائی میں ماہر نظاموں اور بنیادی الگورتھمز کی ترقی بھی ہوئی۔ 1965 میں، ایڈورڈ فیگن بام اور ان کے ساتھیوں نے DENDRAL تیار کیا – جو دنیا کا پہلا ماہر نظام سمجھا جاتا ہے۔ DENDRAL نے کیمیائی ماہرین کی طرح تجرباتی ڈیٹا سے مالیکیولر ساخت کا تجزیہ کرنے میں مدد دی، اور یہ ظاہر کیا کہ کمپیوٹر پیچیدہ تخصصی مسائل حل کر سکتے ہیں، جس نے 1980 کی دہائی میں ماہر نظاموں کی ترقی کی بنیاد رکھی۔

مزید برآں، 1972 میں مارسیلی یونیورسٹی میں Prolog زبان متعارف ہوئی، جو منطقی AI اور ریلیشنل قوانین پر مبنی تھی۔ ایک اور اہم سنگ میل 1969 میں آیا جب مارون منسکی اور سیمور پیپرٹ نے کتاب “Perceptrons” شائع کی، جس میں ایک پرت والے پرسیپٹرون ماڈل کی ریاضیاتی حدود (جیسے XOR مسئلہ حل نہ کر پانا) کو واضح کیا گیا، جس سے نیورل نیٹ ورکس کے شعبے پر شدید شکوک و شبہات

بہت سے سرمایہ کاروں نے نیورل نیٹ ورک کی صلاحیتوں پر اعتماد کھو دیا، اور 1960 کی دہائی کے آخر میں نیورل نیٹ ورک کی تحقیق میں زوال آیا۔ یہ AI کے جوش و خروش میں پہلی بار “سرد مہری” کی علامت تھی، جو ایک دہائی سے زیادہ کی امیدوں کے بعد آئی۔

1960 کی دہائی میں AI

1970 کی دہائی: چیلنجز اور پہلی "مصنوعی ذہانت کی سردی"

1970 کی دہائی میں، AI کو حقیقت کے چیلنجز کا سامنا کرنا پڑا: پچھلی دہائی کی بلند توقعات کمپیوٹنگ پاور، ڈیٹا، اور سائنسی سمجھ کی کمی کی وجہ سے پوری نہ ہو سکیں۔ نتیجتاً، AI پر اعتماد اور فنڈنگ میں شدید کمی آئی، جو 1970 کی دہائی کے وسط میں پہلی “مصنوعی ذہانت کی سردی” کے طور پر جانی جاتی ہے۔

1973 میں، سر جیمز لائٹ ہل نے "Artificial Intelligence: A General Survey" کے عنوان سے ایک رپورٹ شائع کی، جس میں AI تحقیق کی پیش رفت پر سخت تنقید کی گئی۔ لائٹ ہل رپورٹ نے نتیجہ اخذ کیا کہ AI محققین نے بہت زیادہ وعدے کیے لیکن بہت کم حاصل کیا، خاص طور پر کمپیوٹر کی زبان اور وژن کی سمجھ بوجھ پر۔

اس رپورٹ کے بعد، برطانیہ کی حکومت نے AI کے لیے زیادہ تر بجٹ منقطع کر دیا۔ امریکہ میں DARPA نے بھی فنڈنگ کو زیادہ عملی منصوبوں کی طرف موڑ دیا۔ نتیجتاً، 1970 کی دہائی کے وسط سے 1980 کی شروعات تک، AI تقریباً جمود کا شکار رہا، جس میں کم پیش رفت اور محدود فنڈنگ رہی۔ یہی مصنوعی ذہانت کی پہلی سردی تھی – ایک طویل تحقیقاتی جمود کا دور۔

اگرچہ مشکلات تھیں، 1970 کی دہائی میں AI تحقیق میں کچھ روشنیاں بھی تھیں۔ ماہر نظام تعلیمی ماحول میں ترقی کرتے رہے، جن میں نمایاں تھا MYCIN (1974) – ایک طبی تشخیصی ماہر نظام جو اسٹینفورڈ میں ٹیڈ شارٹلیف نے بنایا، جو خون کی انفیکشن کی تشخیص میں مدد دیتا تھا۔ MYCIN نے منطق کے قوانین کا استعمال کرتے ہوئے علاج کی سفارشات دی اور کافی درستگی دکھائی، جس سے ماہر نظاموں کی عملی اہمیت ثابت ہوئی۔

اسی دوران، Prolog زبان (1972 میں متعارف) زبان کی پروسیسنگ اور منطق کے مسائل کے حل میں استعمال ہونے لگی، اور AI میں منطق پر مبنی نقطہ نظر کو فروغ دیا۔ روبوٹکس میں، 1979 میں اسٹینفورڈ کے محققین نے کامیابی سے Stanford Cart تیار کیا – پہلا خودکار روبوٹ گاڑی جو رکاوٹوں سے بھری جگہ پر بغیر ریموٹ کنٹرول کے چل سکتی تھی۔ یہ چھوٹا سا کارنامہ بعد میں سیلف ڈرائیونگ کاروں کی تحقیق کی بنیاد بنا۔

مجموعی طور پر، 1970 کی دہائی کے آخر میں AI تحقیق سست روی کا شکار تھی۔ بہت سے AI سائنسدانوں نے مشین لرننگ، شماریات، روبوٹکس، اور کمپیوٹر وژن جیسے متعلقہ شعبوں کی طرف رخ کیا تاکہ اپنا کام جاری رکھ سکیں۔

AI اب وہ “چمکتا ہوا ستارہ” نہیں رہا تھا جو پچھلی دہائی میں تھا، بلکہ ایک محدود شعبہ بن گیا تھا جس میں نمایاں پیش رفت کم تھی۔ اس دور نے محققین کو یاد دلایا کہ مصنوعی ذہانت انسان سے کہیں زیادہ پیچیدہ ہے، اور اس کے لیے نئے، بنیادی نقطہ نظر کی ضرورت ہے بجائے صرف منطق کی نقل کے۔

1970 کی دہائی میں AI

1980 کی دہائی: ماہر نظام – عروج اور زوال

1980 کی دہائی کے آغاز میں، AI نے ایک بار پھر نئی زندگی پائی – جسے کبھی کبھار “AI کی نشاۃ ثانیہ” کہا جاتا ہے۔ اس کی وجہ ماہر نظاموں کی تجارتی کامیابی اور حکومتوں و کاروباروں کی دوبارہ سرمایہ کاری تھی۔ کمپیوٹر طاقتور ہو گئے، اور کمیونٹی کو امید تھی کہ AI کے محدود دائرے میں خیالات کو عملی جامہ پہنا سکتے ہیں۔

ایک بڑا محرک تجارتی ماہر نظام تھے۔ 1981 میں، ڈیجیٹل ایکوئپمنٹ کارپوریشن نے XCON (Expert Configuration) متعارف کروایا – ایک ماہر نظام جو کمپیوٹر سسٹمز کی ترتیب میں مدد دیتا تھا، اور کمپنی کو لاکھوں ڈالر بچانے میں مدد ملی۔ XCON کی کامیابی نے کاروباری دنیا میں ماہر نظاموں کی ترقی کو فروغ دیا، اور کئی کمپنیوں نے ماہر نظام شیلز تیار کیے تاکہ کاروبار اپنی مرضی کے مطابق نظام بنا سکیں۔

Lisp زبان نے بھی تجرباتی مرحلے سے نکل کر Lisp مشینیں بنائیں – ہارڈویئر جو AI پروگرامز چلانے کے لیے خاص طور پر ڈیزائن کیا گیا تھا۔ 1980 کی دہائی کے اوائل میں، Lisp مشین بنانے والی کئی اسٹارٹ اپ کمپنیاں (جیسے Symbolics، Lisp Machines Inc.) وجود میں آئیں، جنہوں نے سرمایہ کاری کا جوش پیدا کیا اور AI کے لیے “Lisp مشین کا دور” شروع کیا۔

اس دور میں بڑی حکومتیں بھی AI میں بھاری سرمایہ کاری کر رہی تھیں۔ 1982 میں، جاپان نے پانچویں نسل کے کمپیوٹر پروجیکٹ کا آغاز کیا جس کا بجٹ 850 ملین ڈالر تھا، جس کا مقصد Prolog اور منطق پر مبنی ذہین کمپیوٹر بنانا تھا۔ اسی طرح، امریکہ (DARPA) نے بھی AI تحقیق میں سرمایہ کاری بڑھائی تاکہ جاپان کے ساتھ ٹیکنالوجی مقابلہ کر سکے۔ ان منصوبوں کا فوکس ماہر نظام، قدرتی زبان کی پروسیسنگ، اور علم کے ذخیرے پر تھا، تاکہ اعلیٰ ذہانت والے کمپیوٹرز بنائے جا سکیں۔

اسی دوران، مصنوعی نیورل نیٹ ورکس بھی خاموشی سے دوبارہ زندہ ہو رہے تھے۔ 1986 میں، محقق جیوفری ہنٹن اور ان کے ساتھیوں نے Backpropagation الگورتھم پیش کیا – جو کئی پرتوں والے نیورل نیٹ ورک کو تربیت دینے کا مؤثر طریقہ تھا، اور 1969 کی کتاب Perceptrons میں بیان کردہ محدودیتوں کو دور کرتا تھا۔

درحقیقت، بیک پروپیگیشن کا اصول 1970 سے موجود تھا، لیکن 1980 کی دہائی کے وسط میں کمپیوٹر کی طاقت میں اضافے کے باعث اسے مؤثر طریقے سے استعمال کیا گیا۔ بیک پروپیگیشن الگورتھم نے نیورل نیٹ ورک تحقیق کی دوسری لہر کو جنم دیا۔ اس وقت، گہری نیورل نیٹ ورک کی صلاحیتوں پر اعتماد بڑھنا شروع ہوا، جو بعد میں گہری تعلیم (deep learning) کی بنیاد بنی۔

نوجوان محققین جیسے یان لیکون (فرانس)، یوشوا بینگیو (کینیڈا) نے بھی اس دور میں نیورل نیٹ ورک کی تحریک میں حصہ لیا، اور دہائی کے آخر میں ہاتھ سے لکھے ہوئے حروف کی شناخت کے ماڈلز تیار کیے۔

تاہم، AI کی دوسری عروج کی مدت زیادہ دیر نہ چل سکی۔ 1980 کی دہائی کے آخر میں، AI ایک بار پھر بحران کا شکار ہوا کیونکہ نتائج توقعات پر پورے نہیں اترے۔ ماہر نظام اگرچہ کچھ محدود ایپلیکیشنز میں مفید تھے، مگر ان کی کمزوریاں بھی سامنے آئیں: وہ سخت، توسیع پذیر نہیں، اور دستی طور پر علم کی تازہ کاری کی ضرورت رکھتے تھے۔

بہت سے بڑے ماہر نظام منصوبے ناکام ہوئے، اور Lisp مشین مارکیٹ بھی سست پڑ گئی کیونکہ سستے پرسنل کمپیوٹرز نے مقابلہ کر لیا۔ 1987 میں، Lisp مشین انڈسٹری تقریباً مکمل طور پر تباہ ہو گئی۔ AI میں دوسری سرمایہ کاری میں کمی آئی، جس سے دوسری "مصنوعی ذہانت کی سردی" شروع ہوئی۔ اصطلاح “AI winter” جو 1984 میں متعارف ہوئی، 1987-1988 میں کئی AI کمپنیوں کے بند ہونے کے ساتھ حقیقت بن گئی۔ AI شعبہ ایک بار پھر زوال کی طرف گیا، جس سے محققین کو اپنی توقعات اور حکمت عملیوں کو دوبارہ ترتیب دینا پڑا۔

خلاصہ یہ کہ، 1980 کی دہائی AI کی ایک عروج اور زوال کی لہر تھی۔ ماہر نظام نے AI کو صنعتی دنیا میں پہلی بار متعارف کروایا، لیکن ساتھ ہی قانون پر مبنی نقطہ نظر کی حدود بھی ظاہر کیں۔ اس کے باوجود، اس دور نے کئی قیمتی خیالات اور اوزار پیدا کیے: نیورل الگورتھمز سے لے کر پہلے علم کے ذخیرے تک۔ اس نے حد سے زیادہ توقعات سے بچنے کے اسباق بھی دیے، جو اگلی دہائی میں محتاط رویے کی بنیاد بنے۔

1980 کی دہائی میں AI

1990 کی دہائی: AI کا عملی میدان میں واپسی

1980 کی دہائی کے آخر کی مصنوعی ذہانت کی سردی کے بعد، 1990 کی دہائی میں AI پر اعتماد آہستہ آہستہ بحال ہوا، کئی عملی پیش رفتوں کی بدولت۔ محققین نے طاقتور AI (جنرل مصنوعی ذہانت) کی بجائے کمزور AI پر توجہ دی – یعنی AI کو مخصوص مسائل پر لاگو کرنا، جہاں اس نے متاثر کن نتائج دکھائے۔ کئی شعبے جو AI سے الگ ہو چکے تھے (جیسے تقریر کی شناخت، کمپیوٹر وژن، سرچ الگورتھمز، علم کے ذخیرے) اب آزادانہ طور پر ترقی کر رہے تھے اور وسیع پیمانے پر استعمال ہو رہے تھے۔

ایک اہم سنگ میل 1997 میں آیا، جب IBM کے کمپیوٹر Deep Blue نے عالمی شطرنج چیمپئن گیری کاسپاروف کو ایک سرکاری میچ میں شکست دی۔ یہ پہلی بار تھا کہ AI نے پیچیدہ ذہنی کھیل میں عالمی چیمپئن کو شکست دی، جس نے دنیا کو حیران کر دیا۔

Deep Blue کی فتح – جو brute-force سرچ الگورتھم اور اوپننگ ڈیٹا بیس پر مبنی تھی – نے کمپیوٹنگ کی طاقت اور مخصوص تکنیکوں کی مدد سے مشینوں کی انسانوں سے برتری کو ظاہر کیا۔ اس واقعے نے AI کی میڈیا میں شاندار واپسی کی، اور کئی سالوں کی سرد مہری کے بعد تحقیق کو نیا جذبہ دیا۔

صرف شطرنج میں نہیں، بلکہ 1990 کی دہائی میں AI نے کئی دیگر میدانوں میں بھی ترقی کی۔ کھیلوں میں، 1994 میں Chinook پروگرام نے ڈریفتس (چیکرز کی ایک قسم) کو مکمل طور پر حل کر لیا، اور عالمی چیمپئن نے تسلیم کیا کہ وہ کمپیوٹر کو شکست نہیں دے سکتا۔

تقریر کی شناخت میں، تجارتی نظام جیسے Dragon Dictate (1990) سامنے آئے، اور دہائی کے آخر تک تقریر کی شناخت کا سافٹ ویئر ذاتی کمپیوٹرز پر وسیع پیمانے پر استعمال ہونے لگا۔ ہاتھ سے لکھے ہوئے حروف کی شناخت بھی PDA (ذاتی معاون) آلات میں شامل کی گئی، جس کی درستگی میں مسلسل بہتری آئی۔

کمپیوٹر وژن کی ایپلیکیشنز صنعتی میدان میں شروع ہوئیں، جیسے پرزوں کی جانچ اور سیکیورٹی سسٹمز۔ یہاں تک کہ مشینی ترجمہ – جو 1960 کی دہائی میں AI کے لیے ایک مشکل مسئلہ تھا – میں بھی نمایاں پیش رفت ہوئی، جیسے SYSTRAN سسٹم نے یورپی یونین کے لیے متعدد زبانوں میں خودکار ترجمہ فراہم کیا۔

ایک اور اہم رخ مشین لرننگ اور نیورل نیٹ ورکس کا بڑے پیمانے پر ڈیٹا کی کھوج میں استعمال تھا۔ 1990 کی دہائی کے آخر میں انٹرنیٹ کا پھوٹنا ہوا، جس سے ڈیجیٹل ڈیٹا کی بڑی مقدار دستیاب ہوئی۔ ڈیٹا مائننگ اور مشین لرننگ الگورتھمز جیسے فیصلہ درخت، نیورل نیٹ ورکس، اور مارکوف ماڈلز ویب ڈیٹا کے تجزیے، سرچ ٹولز کی بہتری، اور مواد کی تخصیص کے لیے استعمال ہونے لگے۔

“ڈیٹا سائنس” کی اصطلاح ابھی عام نہیں ہوئی تھی، لیکن حقیقت میں AI پہلے ہی سافٹ ویئر سسٹمز میں شامل ہو چکا تھا تاکہ صارف کے ڈیٹا سے سیکھ کر کارکردگی بہتر بنائی جا سکے (مثلاً، ای میل اسپیم فلٹرز، ای کامرس میں مصنوعات کی سفارشات)۔ یہ چھوٹے مگر مؤثر کامیابیاں AI کو کاروبار اور معاشرے میں دوبارہ معتبر بنانے میں مددگار ثابت ہوئیں۔

کہا جا سکتا ہے کہ 1990 کی دہائی AI کے لیے خاموش مگر مضبوط ترقی کا دور تھی۔ بلند و بانگ دعووں کی بجائے، ڈیولپرز نے مخصوص مسائل پر توجہ دی، اور نتیجتاً 20ویں صدی کے آخر میں کئی ٹیکنالوجی مصنوعات میں AI موجود تھا، جنہیں صارفین اکثر محسوس نہیں کرتے تھے – جیسے گیمز، سافٹ ویئر، اور الیکٹرانک ڈیوائسز۔ اس دور نے AI کے لیے ڈیٹا اور الگورتھمز کی مضبوط بنیاد

1990 کی دہائی میں AI

2000 کی دہائی: مشین لرننگ اور بڑے ڈیٹا کا دور

21ویں صدی میں، AI نے انٹرنیٹ اور بڑے ڈیٹا کے دور کی بدولت زبردست ترقی کی۔ 2000 کی دہائی میں، ذاتی کمپیوٹرز، انٹرنیٹ، اور سینسر ڈیوائسز کی بھرمار ہوئی، جس سے بے پناہ ڈیٹا پیدا ہوا۔ مشین لرننگ – خاص طور پر نگرانی شدہ سیکھنے کے طریقے – اس ڈیٹا کے “نئی تیل کی کان” کو کھولنے کے لیے مرکزی اوزار بن گئے۔

نعرہ “data is the new oil” مقبول ہوا، کیونکہ زیادہ ڈیٹا سے AI الگورتھمز کی درستگی بڑھتی ہے۔ بڑی ٹیک کمپنیوں نے صارف کے ڈیٹا سے سیکھنے والے نظام بنانا شروع کیے تاکہ اپنی مصنوعات کو بہتر بنایا جا سکے: گوگل نے زیادہ ذہین سرچ انجن، ایمیزون نے صارف کے رویے کی بنیاد پر خریداری کی تجاویز، اور نیٹ فلکس نے فلموں کی سفارشات تیار کیں۔ AI آہستہ آہستہ ڈیجیٹل پلیٹ فارمز کے پیچھے “دماغ” بن گیا۔

2006 میں ایک اہم واقعہ پیش آیا: فی-فی لی، اسٹینفورڈ یونیورسٹی کی پروفیسر، نے ImageNet پروجیکٹ شروع کیا – ایک وسیع ڈیٹا بیس جس میں 14 ملین سے زائد تصاویر کی تفصیلی ٹیگنگ کی گئی۔ 2009 میں متعارف ہونے کے بعد، ImageNet کمپیوٹر وژن الگورتھمز کی تربیت اور جانچ کے لیے معیار بن گیا، خاص طور پر اشیاء کی شناخت میں۔

ImageNet کو “ڈوپنگ” کی طرح سمجھا جاتا ہے جس نے بعد میں گہری تعلیم کی تحقیق کو فروغ دیا، کیونکہ اس نے پیچیدہ گہری نیورل نیٹ ورکس کے لیے کافی ڈیٹا فراہم کیا۔ 2010 سے شروع ہونے والی ImageNet Challenge سالانہ مقابلہ بن گئی، جہاں تحقیقاتی ٹیمیں بہترین تصویر شناختی الگورتھمز کے لیے مقابلہ کرتی ہیں۔ اسی میدان سے 2012 میں AI کی ایک تاریخی تبدیلی کا آغاز ہوا (دیکھیں 2010 کی دہائی)۔

اسی دہائی میں، AI نے کئی اہم عملی کامیابیاں حاصل کیں:

  • 2005 میں، اسٹینفورڈ کی خودکار گاڑی “Stanley” نے DARPA Grand Challenge جیتا – 212 کلومیٹر کے صحرائی خودکار گاڑی مقابلے میں۔ Stanley نے 6 گھنٹے 53 منٹ میں راستہ مکمل کیا، جو خودکار گاڑیوں کے لیے ایک نیا دور تھا، اور گوگل، اوبر جیسی کمپنیوں کی دلچسپی کا باعث بنا۔
  • موبائل پر ورچوئل اسسٹنٹس کا آغاز ہوا: 2008 میں، گوگل وائس سرچ نے آئی فون پر آواز سے تلاش کی سہولت دی؛ اور 2011 میں ایپل سری متعارف ہوئی – ایک آواز سے کنٹرول ہونے والا اسسٹنٹ جو قدرتی زبان کی شناخت اور ویب سروسز سے جڑ کر صارف کی مدد کرتا تھا۔ سری نے AI کو بڑے پیمانے پر عوام تک پہنچانے کا آغاز کیا۔
  • 2011 میں، سپر کمپیوٹر IBM Watson نے امریکی ٹی وی پر Jeopardy! کھیل میں دو عالمی چیمپئنز کو شکست دی۔ Watson نے پیچیدہ انگریزی سوالات کو سمجھ کر وسیع ڈیٹا سے جوابات تلاش کیے، اور قدرتی زبان کی پروسیسنگ اور معلومات کی تلاش میں AI کی طاقت کو ظاہر کیا۔ یہ فتح ثابت کرتی ہے کہ کمپیوٹر وسیع علمی میدان میں سمجھدار ردعمل دے سکتے ہیں۔
  • سوشل میڈیا اور ویب پر، فیس بک نے تقریباً 2010 میں خودکار چہرہ شناخت اور ٹیگنگ متعارف کروائی، جو صارف کی تصاویر پر مشین لرننگ الگورتھمز استعمال کرتی ہے۔ یوٹیوب اور گوگل نے AI کا استعمال کرتے ہوئے مواد کی فلٹرنگ اور ویڈیو کی سفارش کی۔ مشین لرننگ خاموشی سے پلیٹ فارمز کے پس منظر میں چلتی رہی، صارف کے تجربے کو بہتر بناتے ہوئے، اکثر بغیر صارف کی آگاہی کے۔

کہا جا سکتا ہے کہ 2000 کی دہائی میں AI کی اہم تحریک ڈیٹا اور ایپلیکیشنز تھیں۔ روایتی مشین لرننگ الگورتھمز جیسے ریگریشن، SVM، فیصلہ درخت بڑے پیمانے پر نافذ کیے گئے، اور عملی نتائج دیے۔

AI تحقیق سے نکل کر صنعت میں داخل ہو گئی: “کاروباری AI” ایک گرم موضوع بن گیا، جہاں کئی کمپنیاں AI حل فراہم کرنے لگیں، جیسے مینجمنٹ، مالیات، مارکیٹنگ وغیرہ۔ 2006 میں “انٹرپرائز AI” کی اصطلاح سامنے آئی، جو AI کے کاروباری استعمال اور فیصلہ سازی میں بہتری پر زور دیتی ہے۔

2000 کی دہائی کے آخر میں گہری تعلیم کی انقلاب کی ابتدا بھی ہوئی۔ کئی پرتوں والے نیورل نیٹ ورکس کی تحقیق جاری رہی۔ 2009 میں، اینڈریو اینگ کی ٹیم نے اسٹینفورڈ میں GPU (گرافکس پروسیسنگ یونٹ) کا استعمال کرتے ہوئے نیورل نیٹ ورک کی تربیت کو CPU کے مقابلے میں 70 گنا تیز کیا۔

GPU کی متوازی کمپیوٹنگ طاقت نیورل نیٹ ورک کے میٹرکس حسابات کے لیے بہت موزوں تھی، جس نے 2010 کی دہائی میں بڑے گہری تعلیم کے ماڈلز کی تربیت کے دروازے کھول دیے۔ بڑے ڈیٹا، طاقتور ہارڈویئر، اور بہتر الگورتھمز نے AI کی نئی انقلاب کی بنیاد رکھی۔

2000 کی دہائی میں AI

2010 کی دہائی: گہری تعلیم کی انقلاب (Deep Learning)

اگر AI کی کسی دہائی کو “حقیقی پرواز” کا دور کہنا ہو تو وہ 2010 کی دہائی ہے۔ پچھلی دہائی کے ڈیٹا اور ہارڈویئر کی بنیاد پر، مصنوعی ذہانت نے گہری تعلیم (deep learning) کے دور میں قدم رکھا – کئی پرتوں والے نیورل نیٹ ورکس نے شاندار کامیابیاں حاصل کیں، اور AI کے مختلف کاموں میں ریکارڈ توڑے۔ مشینوں کے “انسان کی طرح سیکھنے” کا خواب گہری تعلیم کے الگورتھمز کے ذریعے حقیقت بننے لگا۔

2012 میں ایک تاریخی موڑ آیا، جب جیوفری ہنٹن اور ان کے شاگردوں (ایلکس کرزھیوسکی، ایلیا سٹسکیور) نے ImageNet Challenge میں حصہ لیا۔ ان کا ماڈل – جسے AlexNet کہا جاتا ہے – ایک 8 پرتوں والا کنولوشنل نیورل نیٹ ورک تھا جسے GPU پر تربیت دی گئی۔ نتیجہ یہ ہوا کہ AlexNet نے نمایاں درستگی حاصل کی، اور دوسرے نمبر پر آنے والی ٹیم کے مقابلے میں غلطی کی شرح آدھی کر دی۔

یہ غالب فتح کمپیوٹر وژن کمیونٹی کو حیران کر گئی اور گہری تعلیم کی لہر کا آغاز کیا۔ اگلے چند سالوں میں، روایتی تصویر شناختی طریقے تقریباً مکمل طور پر گہری تعلیم کے ماڈلز سے تبدیل ہو گئے۔

AlexNet کی کامیابی نے ثابت کیا کہ مناسب ڈیٹا (ImageNet) اور کمپیوٹنگ (GPU) کے ساتھ، گہری نیورل نیٹ ورکس دیگر AI تکنیکوں سے کہیں بہتر ہو سکتے ہیں۔ ہنٹن اور ان کے ساتھیوں کو گوگل نے جلد ہی اپنی ٹیم میں شامل کیا، اور گہری تعلیم AI تحقیق کا سب سے گرم موضوع بن گیا۔

گہری تعلیم نے نہ صرف کمپیوٹر وژن میں انقلاب برپا کیا بلکہ تقریر کی پروسیسنگ، زبان کی سمجھ، اور دیگر کئی شعبوں میں بھی ترقی کی۔ 2012 میں، گوگل برین (اینڈریو اینگ اور جیف ڈین کا پروجیکٹ) نے ایک گہرا نیورل نیٹ ورک بنایا جو یوٹیوب ویڈیوز کو خود سیکھ کر “بلی” کا تصور دریافت کر سکا، بغیر کسی ٹیگ کے۔

2011 سے 2014 کے درمیان، ورچوئل اسسٹنٹس جیسے سری، گوگل ناو (2012)، اور مائیکروسافٹ کورٹانا (2014) متعارف ہوئے، جو تقریر کی شناخت اور قدرتی زبان کی سمجھ میں پیش رفت کا فائدہ اٹھاتے تھے۔ مثال کے طور پر، 2017 میں مائیکروسافٹ کا تقریر شناختی نظام انسانی سطح کی درستگی تک پہنچ گیا، جس میں گہری نیورل نیٹ ورک کا استعمال تھا۔ ترجمہ میں، 2016 میں گوگل ٹرانسلیٹ نے نیورل مشین ترجمہ (NMT) اپنایا، جو پرانے شماریاتی ماڈلز سے بہتر معیار فراہم کرتا ہے۔

ایک اور اہم سنگ میل شطرنج کے کھیل میں AI کی فتح تھی، جو پہلے بہت دور کی بات سمجھی جاتی تھی۔ مارچ 2016 میں، DeepMind کا AlphaGo پروگرام دنیا کے نمبر ایک گو کھیل کے کھلاڑی لی سیڈول کو 4-1 سے ہرا دیا۔ گو شطرنج سے کہیں زیادہ پیچیدہ ہے، اور اس کے ممکنہ چالوں کی تعداد اتنی زیادہ ہے کہ brute-force ممکن نہیں۔ AlphaGo نے گہری تعلیم اور Monte Carlo Tree Search الگورتھم کو ملا کر لاکھوں انسانی کھیلوں سے سیکھا اور خود سے کھیل کر مہارت حاصل کی۔

یہ فتح Deep Blue-Kasparov 1997 کی طرح اہم تھی، اور ظاہر کرتی ہے کہ AI بصری اور تجرباتی مہارتوں میں انسانوں سے آگے نکل چکا ہے۔ AlphaGo کے بعد، DeepMind نے AlphaGo Zero (2017) بنایا، جو مکمل طور پر خود سے سیکھتا ہے اور پرانے ورژن کو 100-0 سے ہرا دیتا ہے۔ یہ reinforcement learning اور گہری تعلیم کے امتزاج کی طاقت کو ظاہر کرتا ہے۔

2017 میں، زبان کی پروسیسنگ میں ایک انقلابی ایجاد ہوئی: Transformer آرکیٹیکچر۔ گوگل کے محققین نے مقالہ “Attention Is All You Need” میں self-attention میکانزم پیش کیا، جو جملے کے الفاظ کے درمیان تعلقات کو بغیر ترتیب کے سمجھنے کی اجازت دیتا ہے۔

Transformer نے بڑے زبان کے ماڈلز (LLM) کی تربیت کو پہلے کے RNN/LSTM ماڈلز سے کہیں زیادہ مؤثر بنا دیا۔ اس کے بعد، Transformer پر مبنی کئی ماڈلز آئے: گوگل کا BERT (2018) جو سیاق و سباق کو سمجھتا ہے، اور خاص طور پر OpenAI کا GPT (Generative Pre-trained Transformer) جو 2018 میں متعارف ہوا۔

یہ ماڈلز زبان کے مختلف کاموں میں شاندار نتائج دیتے ہیں، جیسے درجہ بندی، سوالات کے جواب، اور متن کی تخلیق۔ Transformer نے 2020 کی دہائی میں بڑے زبان کے ماڈلز کی دوڑ کی بنیاد رکھی۔

2010 کی دہائی کے آخر میں تخلیقی AI (generative AI) بھی سامنے آیا – ایسے AI ماڈلز جو نیا مواد خود تخلیق کر سکتے ہیں۔ 2014 میں، ایان گوڈفیلو اور ساتھیوں نے GAN (Generative Adversarial Network) ایجاد کیا، جو دو نیورل نیٹ ورکس کے ذریعے جعلی ڈیٹا بناتا ہے جو اصلی ڈیٹا جیسا لگتا ہے۔

GAN نے deepfake جیسے حقیقی لگنے والے جعلی چہرے بنانے میں شہرت حاصل کی۔ ساتھ ہی، autoencoder کی اقسام (VAE) اور style transfer ماڈلز بھی بنے، جو تصاویر اور ویڈیوز کو نئے انداز میں تبدیل کرنے کی اجازت دیتے ہیں۔

2019 میں، OpenAI نے GPT-2 متعارف کروایا – 1.5 ارب پیرامیٹرز والا متن تخلیق کرنے والا ماڈل جو انسانی طرز کا روانی سے متن لکھ سکتا تھا۔ واضح تھا کہ AI اب صرف درجہ بندی یا پیش گوئی نہیں کر رہا بلکہ قائل کن انداز میں مواد تخلیق بھی کر سکتا ہے۔

2010 کی دہائی میں AI نے توقعات سے کہیں زیادہ ترقی کی۔ کئی ایسے کام جو پہلے کمپیوٹر کے لیے ناممکن سمجھے جاتے تھے، اب AI نے انسانوں کے برابر یا بہتر کر دکھائے: تصویر کی شناخت، تقریر کی پہچان، ترجمہ، اور پیچیدہ کھیل کھیلنا۔

سب سے اہم بات یہ ہے کہ AI روزمرہ زندگی میں گھل مل گیا: اسمارٹ فون کیمرے خودکار چہرہ شناخت کرتے ہیں، اسمارٹ اسپیکرز میں ورچوئل اسسٹنٹس (جیسے Alexa، Google Home) ہوتے ہیں، اور سوشل میڈیا پر مواد کی سفارش AI کے ذریعے ہوتی ہے۔ یہ واقعی AI کا عروج کا دور تھا، جسے کئی لوگ “نئی بجلی” قرار دیتے ہیں – ایک بنیادی ٹیکنالوجی جو ہر صنعت کو بدل رہی ہے۔

2010 کی دہائی میں AI

2020 کی دہائی: تخلیقی AI کا عروج اور نئی رجحانات

صرف چند سالوں میں، 2020 کی دہائی میں AI نے بے مثال رفتار سے ترقی کی، خاص طور پر تخلیقی AI (Generative AI) اور بڑے زبان کے ماڈلز (LLM) کی بدولت۔ یہ نظام سیدھے لاکھوں صارفین تک پہنچے، اور تخلیقی ایپلیکیشنز کی ایک لہر پیدا کی، جس سے گہرے سماجی مباحثے بھی شروع ہوئے کہ AI کا اثر کیا ہوگا۔

جون 2020 میں، OpenAI نے GPT-3 متعارف کروایا – ایک بہت بڑا زبان ماڈل جس میں 175 ارب پیرامیٹرز تھے، جو پچھلے سب سے بڑے ماڈل سے 10 گنا بڑا تھا۔ GPT-3 نے حیران کن طور پر متن لکھنا، سوالات کے جواب دینا، شاعری کرنا، اور پروگرامنگ کوڈ لکھنا تقریباً انسان کی طرح کر دکھایا، اگرچہ بعض اوقات حقیقت سے ہٹ کر غلطیاں بھی کرتا تھا۔ GPT-3 کی طاقت نے دکھایا کہ ماڈل کا حجم اور تربیتی ڈیٹا کی مقدار زبان کی روانی اور تخلیقیت میں اہم کردار ادا کرتی ہے۔ GPT-3 پر مبنی ایپلیکیشنز جلد ہی مارکیٹنگ مواد، ای میل اسسٹنس، اور پروگرامنگ میں استعمال ہونے لگیں۔

نومبر 2022 میں، AI نے عوامی توجہ حاصل کی جب OpenAI نے ChatGPT جاری کیا – ایک GPT-3.5 پر مبنی انٹرایکٹو چیٹ بوٹ۔ صرف 5 دنوں میں ChatGPT نے 1 ملین صارفین حاصل کیے، اور دو مہینوں میں 100 ملین صارفین سے تجاوز کر گیا، جو تاریخ کا سب سے تیزی سے بڑھنے والا صارف ایپلیکیشن بنا۔

ChatGPT نے متن کی تخلیق، مسئلہ حل، مشورہ دینے جیسے کاموں میں زبردست ذہانت اور لچک دکھائی، جس سے صارفین حیران رہ گئے۔ ChatGPT کی مقبولیت نے AI کو پہلی بار بڑے پیمانے پر تخلیقی آلے کے طور پر استعمال ہونے کا موقع دیا، اور ٹیکنالوجی کے بڑے کھلاڑیوں کے درمیان AI کی دوڑ کا آغاز کیا۔

2023 کے آغاز میں، مائیکروسافٹ نے GPT-4 (OpenAI کا اگلا ماڈل) کو Bing سرچ میں شامل کیا، جبکہ گوگل نے اپنا چیٹ بوٹ Bard لانچ کیا جو ان کی LaMDA ماڈل پر مبنی تھا۔ اس مقابلے نے تخلیقی AI ٹیکنالوجی کی رسائی اور تیزی سے بہتری کو فروغ دیا۔

متن کے علاوہ، تخلیقی AI نے تصویر اور آواز کے شعبوں میں بھی نمایاں ترقی کی۔ 2022 میں، text-to-image ماڈلز جیسے DALL-E 2 (OpenAI)، Midjourney، اور Stable Diffusion صارفین کو متن کی وضاحت کے ذریعے تصاویر بنانے کی اجازت دیتے ہیں۔ ان تصاویر کی کوالٹی اتنی حقیقت پسندانہ اور تخلیقی ہوتی ہے کہ یہ ڈیجیٹل مواد کی تخلیق کے نئے دور کا آغاز ہے۔

تاہم، اس نے کاپی رائٹ اور اخلاقیات کے مسائل بھی جنم دیے، کیونکہ AI فنکاروں کی تصاویر سے سیکھ کر مشابہت پیدا کرتا ہے۔ آواز میں، نئی نسل کے text-to-speech ماڈلز متن کو انسانی آواز میں تبدیل کر سکتے ہیں، یہاں تک کہ مشہور شخصیات کی آواز کی نقل بھی کر سکتے ہیں، جس سے deepfake آوازوں کا خدشہ پیدا ہوا۔

2023 میں، پہلی بار AI کی تربیت کے لیے استعمال ہونے والے ڈیٹا کے حقوق پر مقدمات بھی سامنے آئے – مثلاً Getty Images نے Stability AI (Stable Diffusion کے ڈویلپر) کے خلاف کیس دائر کیا کیونکہ انہوں نے لاکھوں کاپی رائٹ شدہ تصاویر بغیر اجازت استعمال کیں۔ یہ AI کی زبردست ترقی کے منفی پہلوؤں کو ظاہر کرتا ہے: قانونی، اخلاقی، اور سماجی مسائل جن پر سنجیدہ توجہ کی ضرورت ہے۔

AI کے اس جوش میں، 2023 میں ہزاروں ٹیکنالوجی کے ماہرین (جیسے ایلون مسک، اسٹیو ووزنیاک، اور دیگر AI محققین) نے ایک کھلا خط پر دستخط کیے جس میں GPT-4 سے بڑے AI ماڈلز کی تربیت کو 6 ماہ کے لیے روکنے کی اپیل کی گئی، کیونکہ وہ تیزی سے ترقی کو قابو سے باہر سمجھتے ہیں۔

اسی سال، گہری تعلیم کے “باپ” سمجھے جانے والے جیوفری ہنٹن نے بھی AI کے خطرات پر خبردار کیا۔ یورپی یونین کی کمیٹی نے جلد ہی AI ایکٹ (EU AI Act) مکمل کیا – دنیا کا پہلا جامع AI ضابطہ جو 2024 سے نافذ ہوگا۔ یہ قانون ایسے AI نظاموں پر پابندی لگاتا ہے جو ناقابل قبول خطرات (جیسے بڑے پیمانے پر نگرانی، سماجی اسکورنگ) رکھتے ہیں، اور AI ماڈلز کی شفافیت کا تقاضا کرتا ہے۔

امریکہ میں بھی کئی ریاستوں نے حساس شعبوں (بھرتی، مالیات، انتخابی مہمات وغیرہ) میں AI کے استعمال پر پابندیاں عائد کی ہیں۔ واضح ہے کہ دنیا AI کے لیے قانونی اور اخلاقی فریم ورک بنانے میں تیزی سے مصروف ہے، جو اس ٹیکنالوجی کی گہرے اثرات کی ضرورت ہے۔

مجموعی طور پر، 2020 کی دہائی AI کی تکنیکی اور عوامی دونوں سطحوں پر بوم کی دہائی ہے۔ نئی نسل کے AI اوزار جیسے ChatGPT، DALL-E، Midjourney وغیرہ عام ہو چکے ہیں، اور لاکھوں لوگوں کو تخلیقی اور موثر کام کرنے میں مدد دے رہے ہیں۔

ساتھ ہی، AI میں سرمایہ کاری کی دوڑ بھی زور پکڑ گئی ہے: پیش گوئی ہے کہ اگلے چند سالوں میں کاروباری AI تخلیق پر خرچ 1 بلین ڈالر سے تجاوز کر جائے گا۔ AI مختلف شعبوں میں گہرائی سے داخل ہو رہا ہے: صحت (امیجنگ تشخیص، نئی دوائیں تلاش کرنا)، مالیات (خطرے کا تجزیہ، فراڈ کی نشاندہی)، تعلیم (ورچوئل اسسٹنٹس، ذاتی نوعیت کا تعلیمی مواد)، ٹرانسپورٹ (اعلیٰ سطح کی خودکار گاڑیاں)، دفاع (حکمت عملی کے فیصلے) وغیرہ۔

کہا جا سکتا ہے کہ AI اب بجلی یا انٹرنیٹ کی طرح ہے – ایک بنیادی ٹیکنالوجی جسے ہر کاروبار اور حکومت استعمال کرنا چاہتی ہے۔ کئی ماہرین پرامید ہیں کہ AI مستقبل میں بھی پیداواریت اور معیار زندگی میں نمایاں بہتری لائے گا اگر اسے صحیح طریقے سے ترقی دی اور منظم کیا جائے۔

2020 کی دہائی میں AI


1950 کی دہائی سے اب تک، مصنوعی ذہانت کی ترقی کی تاریخ ایک حیرت انگیز سفر رہی ہے – جو بلند حوصلہ، مایوسی، اور پھر عروج سے بھرا ہوا ہے۔ 1956 کے چھوٹے ڈارٹماؤتھ ورکشاپ نے اس شعبے کی بنیاد رکھی، AI دو بار “مصنوعی ذہانت کی سردیوں” سے گزرا کیونکہ توقعات بہت زیادہ تھیں، لیکن ہر بار سائنس اور ٹیکنالوجی کی پیش رفت نے اسے مضبوطی سے واپس لایا۔ خاص طور پر پچھلے 15 سالوں میں، AI نے ، تجرباتی مرحلے سے نکل کر حقیقی دنیا میں داخل ہو کر گہرے اثرات پیدا کیے ہیں۔

آج، AI تقریباً ہر شعبے میں موجود ہے اور زیادہ ذہین اور کثیر الجہتی ہو رہا ہے۔ تاہم، طاقتور AI (جنرل مصنوعی ذہانت) – ایک ایسا نظام جو انسان کی طرح لچکدار ذہانت رکھتا ہو – ابھی بھی مستقبل کی بات ہے۔

موجودہ AI ماڈلز متاثر کن ہیں مگر صرف مخصوص کاموں تک محدود ہیں، اور بعض اوقات غیر متوقع غلطیاں کرتے ہیں (جیسے ChatGPT کبھی کبھار غلط معلومات کو بہت اعتماد سے پیش کرتا ہےسلامتی اور اخلاقیات کے چیلنجز بھی اہم ہیں: AI کو قابو، شفاف، اور انسانیت کے مشترکہ فائدے کے لیے ذمہ دارانہ طور پر ترقی دینا ضروری ہے۔

AI کا اگلا سفر انتہائی دلچسپ ہوگا۔ موجودہ رفتار کے ساتھ، ہم دیکھ سکتے ہیں کہ AI زندگی میں مزید گہرائی سے شامل ہوگا: جیسے AI ڈاکٹرز جو صحت کی دیکھ بھال میں مدد کریں، AI وکلاء جو قانونی دستاویزات تلاش کریں، اور AI دوست جو تعلیم اور جذباتی مدد فراہم کریں۔

ٹیکنالوجی جیسے نیورومورفک کمپیوٹنگ پر تحقیق ہو رہی ہے تاکہ انسانی دماغ کی ساخت کی نقل کی جا سکے، جو AI کی نئی نسل کو زیادہ مؤثر اور قدرتی ذہانت کے قریب بنا سکتی ہے۔ اگرچہ AI کے انسان سے آگے نکلنے کے امکانات پر بحث جاری ہے، لیکن واضح ہے کہ AI مزید ترقی کرے گا اور انسانیت کے مستقبل کی تشکیل میں گہرا کردار ادا کرے گا۔

مصنوعی ذہانت کی تشکیل اور ترقی کی تاریخ ہمیں انسان کی مستقل جدوجہد اور تخلیقی صلاحیت کی کہانی سناتی ہے۔ ابتدائی کمپیوٹرز جو صرف حساب کرتے تھے، اب ہم نے انہیں سکھایا ہے کہ وہ کھیلیں، گاڑیاں چلائیں، دنیا کو پہچانیں، اور یہاں تک کہ فنون لطیفہ تخلیق کریں۔ مصنوعی ذہانت اب اور مستقبل میں ہماری حدود کو عبور کرنے کی صلاحیت کی علامت ہے۔

اہم بات یہ ہے کہ ہم تاریخ سے سبق سیکھیں – صحیح توقعات رکھیں، اور AI کو ذمہ داری سے ترقی دیں – تاکہ AI انسانیت کے لیے زیادہ سے زیادہ فائدہ مند ثابت ہو۔