كشف باحثون عن أول دليل مادي على استخدام الفضلات البشرية في الطب الروماني القديم، بينما تتزايد في الوقت نفسه المخاوف بشأن تأثير التكنولوجيا على صحة الأطفال، بما في ذلك التعرض لإعلانات أدوية إنقاص الوزن والمخاطر المحتملة للنصائح الطبية التي يولدها الذكاء الاصطناعي. تركز الاكتشافات المتعلقة بالطب الروماني على وعاء تم اكتشافه في بيرغامون، الموجودة الآن في غرب تركيا، والذي احتوى على بقايا تم تحديدها على أنها مادة برازية، وفقًا لـ Fox News. في غضون ذلك، تسلط التقارير الصادرة عن مفوض شؤون الأطفال في إنجلترا الضوء على قصف الشباب بالإعلانات عن منتجات إنقاص الوزن عبر الإنترنت، وتحذر دراسة من جامعة أكسفورد من المخاطر المرتبطة بروبوتات الدردشة التي تعمل بالذكاء الاصطناعي والتي تقدم نصائح طبية غير دقيقة.
ووفقًا لـ Fox News، تبين أن الوعاء الذي يحتوي على الفضلات البشرية كان يخدم غرضًا طبيًا. حدد فريق البحث "رقائق بنية داكنة" في البقايا، والتي تم تحديدها على أنها مادة برازية. وقد أثار هذا الاكتشاف "إثارة هائلة" بين علماء الآثار.
في الوقت نفسه، أفاد مفوض شؤون الأطفال في إنجلترا بأن الأطفال يتعرضون بشكل روتيني لإعلانات عن حقن وأقراص إنقاص الوزن عبر الإنترنت، وفقًا لـ BBC Technology و BBC Business. ووجد التقرير أن الشباب "يتعرضون للقصف" بالإعلانات عن المنتجات التي تدعي تغيير أجسادهم ومظهرهم، على الرغم من حظر هذا النوع من الإعلانات. قالت السيدة راشيل دي سوزا، مفوضة شؤون الأطفال، إن هذه المنشورات "مدمرة للغاية" لتقدير الذات لدى الشباب ودعت إلى حظر الإعلانات على وسائل التواصل الاجتماعي للأطفال. صرح متحدث باسم الهيئة التنظيمية للإعلام Ofcom بأنها لا تتسامح مع "شركات التكنولوجيا التي تعطي الأولوية للمشاركة على حساب سلامة الأطفال عبر الإنترنت".
في أخبار ذات صلة، بدأت محاكمة تاريخية في كاليفورنيا تدرس الآثار الصحية العقلية لـ Instagram و YouTube، حيث يتهم المحامون الشركات بإنشاء "آلات إدمان"، وفقًا لـ BBC Technology. جادل مارك لانيير، الذي يمثل المدعي، بأن موكله يعاني من مشاكل في الصحة العقلية نتيجة لإدمان وسائل التواصل الاجتماعي. قال لانيير: "لقد قامت هذه الشركات ببناء آلات مصممة لإدمان أدمغة الأطفال، وفعلوا ذلك عن قصد".
علاوة على ذلك، وجدت دراسة من جامعة أكسفورد أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي تقدم نصائح طبية غير دقيقة وغير متسقة، وفقًا لـ BBC Technology. أعطى الباحثون 1300 شخص سيناريو، مثل الإصابة بالصداع، ووجدوا أن النصائح المقدمة كانت مزيجًا من الاستجابات الجيدة والسيئة، مما يجعل من الصعب على المستخدمين تحديد النصيحة التي يجب الوثوق بها. قالت الدكتورة ريبيكا باين، الطبيبة الرئيسية في الدراسة، إنه قد يكون "من الخطورة" أن يسأل الناس روبوتات الدردشة عن أعراضهم.
Discussion
AI Experts & Community
Be the first to comment