سياسة المواد المتعلقة بالاعتداء الجنسي على الأطفال

January 2026

We maintain a zero-tolerance policy towards any material that sexualizes, sexually exploits, or endangers children on our platform, and we actively work to detect and remove such material. If we find or are made aware of it, we will report it.

Tube8 is deeply committed to fighting the spread of child sexual abuse material (CSAM). This includes media, text, illustrated, or computer-generated images. We view it as our responsibility to work to ensure our platform is not used for sharing or consuming CSAM, and to deter users from searching for it.

Any content featuring or depicting a child (real, fictional, or animated) or promoting child sexual exploitation is strictly forbidden on our platform and is a severe violation of our شروط الخدمة. المحتوى الكتابي (بما في ذلك التعليقات، عناوين المحتوى، وصف المحتوى، الرسائل، أسماء المستخدمين، أو وصف الملف الشخصي) الذي يروّج أو يشير أو يلمح لاستغلال أو إساءة جنسية للطفل محظور أيضاً بشكل صارم.

For the purposes of this policy, a child is any person under eighteen (18) years of age. We report all cases of apparent CSAM to the المركز الوطني للأطفال المفقودين والمستغلين (NCMEC), a nonprofit organization which operates a centralized clearinghouse for reporting incidents of online sexual exploitation of children. NCMEC makes reports available to appropriate law enforcement agencies globally.

Additionally, at Tube8 we endorse and stand behind the objectives of the المبادئ التطوعية لمكافحة استغلال الأطفال جنسياًً على الإنترنت; وهي مبادرة تعاونية أطلقتها لجنة وزراء خمس دول (5 عيون)¹، وتدعمها شركات تقنية رائدة لمكافحة استغلال الأطفال على الإنترنت. بينما يسعى بعض الأشخاص لاستغلال التقدم التكنولوجي، نؤمن أن السياسات القوية والفعّالة والمرنة، والمشاركة في التعاون العالمي بين القطاعات المختلفة، يمكن أن تقضي بفعالية على انتشار الإساءة على الإنترنت.

If you encounter child sexual abuse material on Tube8 please report it to us via our نموذج طلب إزالة المحتوى. لمزيد من المعلومات حول كيفية الإبلاغ عن مواد إساءة الأطفال، يرجى مراجعة قسم الموارد والدعم الإضافية أدناه.

يمكن لأي شخص الإبلاغ عن الانتهاكات المحتملة لهذه السياسة.

لمزيد من المعلومات حول كيفية الإبلاغ عن المحتوى، انظر القسم بعنوان "كيف يمكنك مساعدتنا".

جميع الشكاوى والتقارير المقدمة إلى Tube8 تبقى سرية ويتم مراجعتها من قبل مشرفين بشريين يعملون بسرعة للتعامل مع المحتوى بشكل مناسب. إذا كنت تعتقد أن طفلاً في خطر وشيك، يرجى أيضاً إبلاغ سلطات إنفاذ القانون المحلية فوراً.

¹ تتألف لجنة وزراء خمس دول من وزراء الأمن الداخلي، السلامة العامة والهجرة في أستراليا، كندا، نيوزيلندا، المملكة المتحدة، والولايات المتحدة، الذين يجتمعون سنوياً للتعاون في مواجهة تحديات الأمن المشتركة.

If you encounter child sexual abuse material on our platform, please الإبلاغ عنها إلينا.

Guideline

لا تقم بنشر أي مواد (سواء كانت مرئية، صوتية أو مكتوبة) التي*:

  • تظهر، تشمل أو تصوّر طفلاً.
  • تستغل طفلاً جنسياًً. يشمل ذلك المحتوى الذي يظهر، يشمل أو يصوّر طفلاً (بما في ذلك الصور التوضيحية، المنشأة بالحاسوب، أو أي أشكال أخرى من الصور الواقعية للطفل البشري) وهو منخرط في سلوك جنسي صريح أو أفعال ذات إيحاءات جنسية.

* This serves as an indicative list and does not constitute an exhaustive list. For a more detailed description, please review our شروط الخدمة, تحت القسم المعنون بـ "الاستخدامات المحظورة". تحتفظ Tube8 بالحق في أي وقت لتحديد ما إذا كان المحتوى مناسباً ومتوافقاً مع شروط الخدمة, وقد تقوم، وفق تقديرها المطلق ودون إشعار مسبق، بإزالة أي محتوى في أي وقت.

التنفيذ

We have strict policies, operational mechanisms, and technologies in place to tackle and take swift action against CSAM. We also cooperate with law enforcement investigations and promptly respond to valid legal requests received to assist in combating the dissemination of CSAM on our platform.

Our team of human moderators work around the clock to review all content uploaded to help prevent any content which may be in violation of our CSAM or other policies, from appearing on our platform. Additionally, when we are alerted to an actual or potential instance of CSAM appearing on the platform, we remove and investigate the content and report any material identified as CSAM to NCMEC. As part of our ongoing efforts, we regularly audit our websites to update and expand our list of banned search words, titles, and tags, helping to ensure our community remains safe, inclusive, diverse, and free from abusive and illegal content.

In conjunction with our team of human moderators and regular audits of our platform, we also rely on innovative industry-standard technical tools to assist in identifying, reporting, and removing CSAM and other types of illegal content from our platform. We use automated detection technologies as added layers of protection to better guard against CSAM on our platform.

تشمل هذه التقنيات:

  • مطابقة CSAI من يوتيوب: أداة تساعد في تحديد الفيديوهات المعروفة المتعلقة بإساءة معاملة الأطفال جنسياً.
  • فوتو دي إن إيه من مايكروسوفت: أداة تساعد في اكتشاف وإزالة الصور المعروفة المتعلقة بإساءة معاملة الأطفال جنسياً.
  • واجهة برمجة تطبيقات الأمان الرقمي من غوغل: أداة متقدمة للذكاء الاصطناعي تقوم بتقييم المحتوى وترتيبه حسب احتمال احتوائه على صور غير قانونية للمساعدة في تمكين المراجعين من اكتشاف مواد استغلال الأطفال غير المعروفة جنسياً.
  • Safer: أداة شاملة من منظمة ثورن للكشف عن مواد استغلال الأطفال جنسياً تُستخدم للحفاظ على المنصات خالية من المواد المسيئة.
  • Instant Image Identifier: the Centre for Expertise on Online Sexual Child Abuse (Offlimits) tool, commissioned by the European Commission, detects known child abuse imagery using a triple verified database.
  • NCMEC Hash Sharing: NCMEC's database of known CSAM hashes, including hashes submitted by individuals who fingerprinted their own underage content via NCMEC’s خذها للأسفل خدمة.
  • Internet Watch Foundation قائمة البصمات التابعة لـ IWF: قاعدة بيانات IWF لمواد استغلال الأطفال جنسياً، والمستمدة من بلاغات الخط الساخن وقاعدة بيانات صور إساءة معاملة الأطفال التابعة لوزارة الداخلية في المملكة المتحدة.
  • MediaWise® خدمة من Vobile ®: برنامج متقدم لبصمة الصور وقاعدة بيانات تقوم بفحص جميع التحميلات الجديدة للمستخدمين للمساعدة في منع إعادة تحميل المحتوى المخالف الذي تم تحديده مسبقاً.
  • Safeguard: Our proprietary image fingerprinting and recognition technology designed with the purpose of combatting both child sexual abuse imagery and the distribution of non-consensual intimate images, and to help prevent the re-uploading of that content to our platform.
  • Age Estimation: نستخدم أيضاً قدرات تقدير العمر لتحليل المحتوى المُحمّل إلى منصتنا باستخدام مزيج من البرامج الداخلية المملوكة لنا والتقنيات الخارجية، في محاولة لتعزيز الأساليب المختلفة التي نستخدمها لمنع تحميل ونشر مواد استغلال الأطفال جنسياً المحتملة أو الفعلية.
  • Transcription Service: Our transcription service transcribes the audio in uploaded videos to text. Transcribed text is then run against our list of banned words to assist our moderation team in identifying content that may violate our شروط الخدمة.
  • Watermark Detection Service: نستخدم تقنية ملكية داخلية لاكتشاف العلامات المائية الموجودة في المحتوى المخالف للمساعدة في تحديد وإزالة التحميلات الجديدة أو ذات الصلة بهذا المحتوى.

معاً، تلعب هذه الأدوات دوراً أساسياً في جهودنا المشتركة ضد نشر مواد استغلال الأطفال جنسياً على منصتنا، وفي مهمتنا لدعم الجهود الجماعية في الصناعة للقضاء على هذه الجريمة العالمية البشعة المتمثلة في استغلال الأطفال جنسياًً عبر الإنترنت.

كيف يمكنك مساعدتنا

If you believe you have come across CSAM, or any other content that otherwise violates our شروط الخدمة, we strongly encourage you to immediately report the content by flagging it or by submitting a request through our نموذج طلب إزالة المحتوى.

When submitting a Content Removal Request, please include all relevant URL links to the content in question and we will address your request confidentially and remove the content expeditiously.

Anyone can report violations of this policy using our نموذج طلب إزالة المحتوى, سواء كان لديه حساب على منصتنا أم لا.

العواقب المترتبة على انتهاك هذه السياسة

We maintain a zero-tolerance policy towards any content that involves a child or constitutes child sexual abuse material, and we actively work to detect and remove such material. All child sexual abuse material that we identify or are made aware of results in the immediate removal of the content in question and the banning of its uploader. We report all cases of apparent CSAM to the National Center for Missing and Exploited Children.

موارد ودعم إضافي

إذا كنت تعتقد أن طفلاً في خطر وشيك، يجب عليك التواصل مع جهات إنفاذ القانون المحلية للإبلاغ عن الموقف فوراً.

يمكنك أيضاً التواصل مع أي من المنظمات المخصصة للقضاء على استغلال الأطفال جنسياًً للإبلاغ عن حالات استغلال الأطفال أو المواد المسيئة. يمكن تقديم البلاغات بشكل مجهول، وهي جزء أساسي من حماية الأطفال.

الرابطة الدولية للخطوط الساخنة عبر الإنترنت

المركز الوطني للأطفال المفقودين والمستغلين (NCMEC)

المركز الكندي لحماية الأطفال

مؤسسة مراقبة الإنترنت

نعمل مع العديد من المنظمات التي تكرس جهودها لمكافحة استغلال الأطفال جنسياً حول العالم.