آیا احتمال انقراض انسان در این قرن واقعا ۱ به ۶ است؟!

آیا احتمال انقراض انسان در این قرن واقعا ۱ به ۶ است؟!

گروه هوش مصنوعی: «توبی اورد»(Toby Ord) فیلسوف اهل آکسفورد در سال 2020، کتابی به نام «پرتگاه»(The Precipice) را درباره ی خطر انقراض انسان منتشر نمود. وی در این کتاب، شانس فاجعه برای گونه ما در طول قرن آینده را یک به شش اعلام نمود.


به گزارش گروه هوش مصنوعی به نقل از ایسنا و به نقل از استادی فایندز، این یک عدد ویژه و هشدار دهنده است. این ادعا در آن زمان سرخط خبرها شد و از آن زمان تا حالا تأثیرگذار بوده است. «اندرو لی»(Andrew Leigh) سیاست مدار استرالیایی بتازگی طی یک سخنرانی در ملبورن باردیگر آنرا بیان کرد.
مخالفت کردن با این ایده که در دهه های آینده با چشم اندازهای نگران کننده ای، از تغییرات آب وهوایی، سلاح های هسته ای و پاتوژن های مهندسی شده زیستی گرفته تا هوش مصنوعی سرکش و سیارک های بزرگ روبه رو خواهیم بود، دشوار است اما در مورد آن عدد چطور؟ از کجا آمده و واقعا به چه معناست؟

شیر یا خط و پیش بینی آب و هوا
برای پاسخ دادن به این پرسش ها، ابتدا باید به پرسش دیگری پاسخ دهیم و پرسش این است که احتمالات چیست؟ سنتی ترین دیدگاه در مورد احتمالات، «فراوانی گرایی»(frequentism) نامیده می شود.
موضوع پیش بینی آب و هوا را در نظر بگیرید. وقتی یک متخصص هواشناسی به ما می گوید احتمال بارندگی فردا یک به شش یا ۱۷ درصد است، به چه معناست؟
دشوار است باور نماییم که هواشناسی به مفهوم تصور کردن مجموعه بزرگی از فرداهاست که قسمتی از آنها بارندگی را تجربه می کنند. در عوض، ما باید تعداد زیادی از این پیش بینی ها را بررسی نماییم و ببینیم پس از آنها چه اتفاقی افتاده است. اگر پیش بینی کننده در کار خود خوب باشد، وقتی می گوید « احتمال باران فردا یک به شش است»، در حقیقت روز بعد باید ببینیم که از هر شش بار یک دفعه باران می بارد.
بنابراین، احتمال سنتی به مشاهدات و رویه بستگی دارد. برای محاسبه کردن آن باید مجموعه ای از رویدادهای تکراری داشته باشیم که پیش بینی خودرا بر طبق آن انجام دهیم.

از ماه یاد بگیریم
تکرار چه معنایی برای احتمال انقراض انسان دارد؟ چنین رویدادی یک باره خواهد بود و بعد از وقوع، دیگر جایی برای تکرار وجود نخواهد داشت. در عوض، ممکنست تعدادی از رویدادهای موازی را پیدا نماییم که از آنها درس بگیریم. اورد در کتاب خود، برخی از رویدادهای احتمالی انقراض را مورد بحث قرار می دهد که تعدادی از آنها را می توان در پرتو یک تاریخ بررسی کرد.
برای مثال، می توانیم شانس برخورد یک سیارک عامل انقراض را با بررسی کردن تعداد سنگ های فضایی از این دست تخمین بزنیم که در طول تاریخ عمر ماه به آن برخورد کرده اند. «ژان مارک سالوتی»(Jean-Marc Salotti) دانشمند فرانسوی در سال ۲۰۲۲ این کار را انجام داد و احتمال وقوع یک حادثه عامل انقراض را برای قرن آینده حدود یک در ۳۰۰ میلیون محاسبه کرد.
البته، چنین تخمینی مملو از عدم قطعیت است اما با محاسبه کردن تکرارها پشتیبانی می شود. اورد در مقابل این نظریه، خطر انقراض توسط سیارک را یک در میلیون تخمین می زند اما درجه قابل توجهی از عدم قطعیت را نیز خاطرنشان می کند.

سیستم رتبه بندی نتایج
راه دیگری برای اندیشیدن به احتمال وجود دارد که به نام «توماس بیز»(Thomas Bayes) آماردان انگلیسی، احتمالات بیزی نامیده می شود. این روش کمتر روی خود رویدادها تمرکز می کند و بیشتر بر آن چیزی متمرکز است که در مورد آنها می دانیم یا از آنها انتظار داریم.
به زبان بسیار ساده می توان اظهار داشت که طرفداران بیزی، احتمالات را نوعی سیستم رتبه بندی می دانند. در این دیدگاه، عدد خاصی که به یک احتمال متصل است نباید مستقیما در نظر گرفته شود، بلکه باید آنرا با احتمالات دیگر مقایسه کرد تا مشخص شود که کدام نتایج بیشتر و کمتر محتمل هستند.
برای مثال، کتاب اورد شامل جدولی از رویدادهای احتمالی انقراض و برآوردهای شخصی او از احتمال وقوع آنهاست. از دیدگاه بیزی، ما می توانیم این مقادیر را به عنوان رتبه های نسبی در نظر بگیریم. اورد باور دارد که احتمال انقراض در اثر برخورد یک سیارک، یک در میلیون و بسیار کمتر از انقراض ناشی از تغییرات آب وهوایی با احتمال یک در هزار است و احتمال هر دوی آنها بسیار کمتر از انقراض ناشی از آن چیزی است که او آنرا «هوش مصنوعی بی طرف» می نامد. از نظر او، احتمال مورد آخر یک در ۱۰ است.
مشکل اینجاست که تخمین های اولیه احتمالات بیزی نسبتا ذهنی هستند. استدلال سنتی بیزی از احتمالات پیشین به پسین، با ترکیب مجدد شواهدی از نتایج مرتبط برای بروزرسانی مقادیر احتمال حرکت می کند.
و بار دیگر باید اظهار داشت که شواهد مربوط به احتمال انقراض انسان در زمین، ناچیز هستند.

برآوردهای ذهنی
دو راه برای فکر کردن در مورد دقت و سودمندی محاسبات احتمال وجود دارد که یکی کالیبراسیون و دیگری تمایز قائل شدن است.
کالیبراسیون، درستی مقادیر واقعی احتمالات است. ما نمی توانیم این کار را بدون اطلاعات مشاهده ای مناسب انجام دهیم. از طرف دیگر، تمایز فقط به رتبه بندی نسبی اشاره دارد.
ما مبنایی نداریم که بدانیم مقادیر اورد به درستی کالیبراسیون را پشت سر گذاشته اند. البته بعید است که قصد اورد این باشد برای اینکه او خود نشان میدهد که آنها عمدتاً برای ارائه کردن نشانه های «مرتبه بزرگی»(order of magnitude) طراحی شده اند.
با این وجود، بدون هیچ نوع تایید در مورد مشاهدات مرتبط، بیشتر این تخمین ها بسادگی در عرصه ذهنی احتمالات پیشین باقی می مانند.
پس باید از نظریه یک در شش چه نتیجه ای بگیریم؟ تجربه نشان میدهد که بیشتر مردم درک کمتری از احتمال دارند. در این محیط، اگر در مجامع عمومی بحثی را مطرح کنید، برآورد احتمال لزوما نیازی به کالیبراسیون خوبی ندارد و فقط باید تأثیر روانی مناسبی داشته باشد.
از این منظر می توان اظهار داشت که نظریه یک در شش به خوبی با این طرح مطابقت دارد. احتمال یک در ۱۰۰ ممکنست آن قدر کوچک به نظر برسد که نادیده گرفته شود. این در حالیست که شاید احتمال یک در سه، وحشت را به همراه داشته باشد یا به عنوان یک دیوانگی آخرالزمانی رد شود.
این پژوهش در مجله «The Conversation» به چاپ رسید.




منبع:

1402/07/21
14:04:19
5.0 / 5
324
مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۴ بعلاوه ۳
گروه هوش مصنوعی
iagrp.ir - مالکیت معنوی سایت گروه هوش مصنوعی متعلق به مالکین آن می باشد