تکنالوژی جدید گوگل مانع خودکشی نوجوانان میشود
- انتشار: ۲۲ سرطان ۱۳۹۸
- سرویس: سلامتفناوری اطلاعات
- شناسه مطلب: 66142
گوگل در حال ابداع هوش مصنوعی است که خطر خودکشی را در میان نوجوانانی که در فضای مجازی (انترنت) مشکلات خود را مطرح میکنند، ارزیابی کرده و با ارائه مشاوره های هدفمند به جلوگیری از آن کمک میکند.
به تازگی تلاش گوگل در پیشگیری از خودکشی الگوریتمی برای نوجوانانی که در فضای مجازی درخواست کمک میکنند، هدفمندتر شده است.
این هوش مصنوعی با استفاده از گفتگوی اولیه جوانان با مشاوران و ارزیابی خطری که مشاوران بعد از صحبت با آنها ارائه میدهند، آموزش میبیند.
ایده این است که این هوش مصنوعی بتواند با مقایسه نحوه پاسخهای اولیه با خطر نهایی، به نحوی آموزش ببیند که خطر خودکشی را بر اساس اولین پاسخ، پیشبینی کند.
این غول فناوری در ماه میلادی می (ثور – جوزا) ۱.۵ میلون دالر به شرکت Trevor که یک شرکت غیر انتفاعی مستقر در کالیفرنیا است، برای پروژه تکمیل هوش مصنوعی به منظور پیشگیری از خطر خودکشی در میان نوجوانان اعطا کرد.
این شرکت غیر انتفاعی از طریق یک خط تلیفون، یک سرویس sms و نرم افزار ارسال فوری پیام، به نوجوانان در معرض خودکشی مشاوره میدهد.
اکنون محققان این پروژه میخواهند که با استفاده از فراگیری ماشینی برای ارزیابی خودکار خطر خودکشی، مشاورههای تلیفونی و پیام کوتاه این شرکت را تقویت کنند.
جان کالری مدیر این فناوری در پروژه Trevor گفت: به اعتقاد ما اگر بتوان این مدل را بر اساس چند پیام اول مشاوره و ارزیابی خطر آموزش داد، در آن صورت این هوش مصنوعی میتواند مسائل بسیاری را دریابد که انسان قادر به کشف آنها نیست و میتواند بالقوه به ما کمک کند تا اطلاعاتی بیشتری در مورد آنها به دست آوریم و مشاوران به صورت هدفمند به ارائه مشاوره خود ادامه دهند.
الگوریمها پتانسیل باورنکردنی برای شناخت الگوهای غیرقابل رویت دارند اما لازمه یک دروازهبان خوب این است که در صورت مشاهده یک مسئله نادرست بتواند به موقع اقدام و مداخله کند.
در نهایت محققان این شرکت غیرانتفاعی میخواهند که به یک سیستم هوش مصنوعی دست یابند که با اسکن چند پیام ابتدایی در یک گفتوگو بتواند منابع مورد نیاز جوانان را پیشبینی کرده و به آنها کمک کنند؛ آنها امیدوارند که در بلند مدت این هوش مصنوعی به نحوی تکامل یاید که با اسکن چند پیام اولیه بتواند الگوها را در یک فراداده شناسایی کند.
نظرات(۰ دیدگاه)