Web Analytics Made Easy - Statcounter
به نقل از «تابناک»
2024-04-27@07:16:48 GMT

هشدار: تلگرام پریمیوم رایگان را فعال نکنید

تاریخ انتشار: ۷ فروردین ۱۴۰۳ | کد خبر: ۴۰۰۱۳۳۸۴

هشدار: تلگرام پریمیوم رایگان را فعال نکنید

به گزارش «تابناک» به نقل از زومیت، تلگرام سرویس پولی پریمیوم را به‌صورت رایگان به برخی از کاربرانش ارائه می‌دهد، اما با یک پیش‌شرط مهم. این افراد باید به تلگرام اجازه دهند که از شماره‌تلفن آن‌ها برای ارسال کدهای یک‌بارمصرف ازطریق SMS استفاده کند.

به‌نوشته‌ی کانال تلگرامی Telegram Info English، تلگرام طرح جدیدی به نام Peer-To-Peer Login Program (یا P2PL) را در اندروید راه‌اندازی کرده است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

این پیام‌رسان ازطریق P2PL و با بهره‌گیری از شماره‌تلفن شما، کد یک‌بارمصرف برای کاربران دیگر می‌فرستد تا بتوانند وارد حساب خود شوند.

تلگرام می‌گوید ماهانه بیش‌از ۱۵۰ پیامک کد یک‌بار‌مصرف توسط یک شماره‌تلفن ارسال می‌شود و هزینه‌ی آن‌ها برعهده‌ی صاحب شماره‌تلفن است. کاربران می‌توانند از ارسال پیامک به شماره‌های بین‌المللی صرف‌نظر کنند تا هزینه‌ی پیامک غیرمعقول نباشد.

یکی از بزرگ‌ترین مشکلات امنیتی ارسال پیامک کد یک‌بار‌مصرف ازطریق شماره‌تلفن شما، نمایش آن به کاربران دیگر است. تلگرام می‌گوید مسئولیتی در قبال مزاحمت‌های احتمالی افراد برای یک‌دیگر قبول نمی‌کند.

اشتراک رایگان تلگرام پریمیوم می‌تواند قدم مثبتی برای تجربه‌ی قابلیت‌های ویژه‌ی این پیام‌رسان باشد؛ اما جنبه‌های منفی و نقض قوانین حریم خصوصی کاربران ازطریق P2PL یکی از بزرگ‌ترین دلایل صرف‌نظر از آن به‌شمار می‌رود.

منبع: تابناک

کلیدواژه: ماه رمضان عید نوروز نامگذاری سال ها جهش تولید با مشارکت مردم دعای روز چهاردهم رمضان تلگرام تلگرام پریمیوم کاربران شماره کاربران حریم خصوصی ماه رمضان عید نوروز نامگذاری سال ها جهش تولید با مشارکت مردم دعای روز چهاردهم رمضان شماره تلفن

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.tabnak.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «تابناک» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۴۰۰۱۳۳۸۴ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هشدار محققان گوگل: کاربران ممکن است به دستیار‌های هوش مصنوعی وابستگی عاطفی پیدا کنند

محققان گوگل می‌گویند با وجودی که دستیار‌های هوش مصنوعی ابزار‌هایی مفید و کاربردی هستند، اما می‌توانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی می‌تواند پیامد‌های اجتماعی منفی به‌دنبال داشته باشد.

دستیار‌های هوش مصنوعی این روز‌ها بیش‌از‌پیش درحال توسعه هستند و تقریباً در تمامی پلتفرم‌ها به ابزاری کاربرپسند تبدیل شده‌اند. با این شرایط، محققان گوگل در مقاله‌ای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزار‌هایی هشدار می‌دهند.

کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند
براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصی‌سازی‌شده مزایای بالقوه زیادی به‌همراه دارند و می‌توانند تغییراتی همه‌جانبه در زندگی ما ایجاد کنند. این ابزار‌ها می‌توانند وضعیت کار، آموزش و فعالیت‌های خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه می‌گویند اگر توسعه هوش مصنوعی بدون برنامه‌ریزی مدبرانه باشد، می‌تواند به یک شمشیر دولبه تبدیل شود.

این مقاله می‌گوید: «این ابزار‌های غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیت‌هایی می‌تواند پایه و اساس ایجاد وابستگی عاطفی طولانی‌مدت به هوش مصنوعی را برای کاربران ایجاد کنند.»

در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحت‌الشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی می‌تواند جایگزین تعامل انسانی شود.

این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چت‌بات باشد نیز می‌تواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چت‌بات متقاعد شده بود که خودکشی کند.

«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیار‌های شبیه انسان، به‌صورت فزاینده‌ای برخی موضوعات در مورد انسان‌شناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح می‌کنند. او معتقد است که باید با دقت بیشتری به حوزه‌های اجتماعی و هوش مصنوعی توجه کرد.

باشگاه خبرنگاران جوان علمی پزشکی فناوری

دیگر خبرها

  • هوش مصنوعی گوگل معلم زبان انگلیسی می‌شود
  • نارضایتی کاربران از ارسال نشدن پیامک بانکی برای تراکنش‌های کمتر از ۳۰ هزار تومان
  • بروزرسانی بزرگ واتس آپ در راه است
  • هشدار/ این دو موبایل دیگر بروزرسانی دریافت نخواهند کرد
  • بروزرسانی بزرگ واتس‌آپ در راه است
  • بروزرسانی های اساسی واتساپ در راه است
  • هشدار محققان گوگل: کاربران ممکن است به دستیار‌های هوش مصنوعی وابستگی عاطفی پیدا کنند
  • برخورد قضایی با خاطیان مجتمع ورزشی لواسان و چمدان‌هایی که دیرتر به مقصد رسیدند
  • ◄ کدهای دستوری دریافت رمز دوم پویا تمامی بانک‌ ها
  • ارسال پیامک ذخیره سازی آب برای شهروندان تهرانی | ماجرا چیست؟