bosswin168 slot gacor 2023
situs slot online
slot online
situs judi online
boswin168 slot online
agen slot bosswin168
bosswin168
slot bosswin168
mabar69
mabar69 slot online
mabar69 slot online
bosswin168
ronin86
ronin86
ronin86
ronin86
ronin86
ronin86
ronin86
ronin86
cocol77
ronin86
cocol77
cocol77
https://wowcamera.info/
mabar69
mahjong69
mahjong69
mahjong69
mabar69
master38
master38
master38
cocol88
bosswin168
mabar69
MASTER38 MASTER38 MASTER38 MASTER38 BOSSWIN168 BOSSWIN168 BOSSWIN168 BOSSWIN168 BOSSWIN168 COCOL88 COCOL88 COCOL88 COCOL88 MABAR69 MABAR69 MABAR69 MABAR69 MABAR69 MABAR69 MABAR69 MAHJONG69 MAHJONG69 MAHJONG69 MAHJONG69 RONIN86 RONIN86 RONIN86 RONIN86 RONIN86 RONIN86 RONIN86 RONIN86 ZONA69 ZONA69 ZONA69 NOBAR69 ROYAL38 ROYAL38 ROYAL38 ROYAL38 ROYAL38 ROYAL38 ROYAL38 ROYAL38
SLOT GACOR HARI INI SLOT GACOR HARI INI
BOSSWIN168 BOSSWIN168
BARON69
COCOL88
MAX69 MAX69 MAX69
COCOL88 COCOL88 BARON69 RONIN86 DINASTI168
TikTok: The ‘deeply disturbing’ TikTok videos Australian teens see every 39 seconds
0 0
Read Time:3 Minute, 32 Second

PERINGATAN: Konten yang mengganggu

Remaja Australia yang menggunakan TikTok diperlihatkan konten terkait bunuh diri dalam beberapa menit setelah menggunakan aplikasi tersebut, sebuah studi baru mengungkapkan.

Studi tersebut, yang dilakukan oleh Center to Combat Digital Hate (CCHD) yang berkantor pusat di AS, melibatkan para peneliti yang menyiapkan dua akun TikTok baru untuk pengguna berusia 13 tahun di AS, Inggris, Australia, dan Kanada.

Tonton Berita terbaru di Channel 7 atau streaming gratis di 7plus >>

Satu akun adalah akun “standar” dan satu akun “rentan” – artinya akun yang dibuat memiliki nama pengguna yang mengandung kata “menurunkan berat badan”.

Ini untuk menguji teori bahwa pengguna yang menelusuri konten terkait gangguan makan sering kali memiliki nama pengguna yang berisi kata-kata terkait.

Untuk setiap akun, layar peneliti merekam penggunaan 30 menit pertama, menyukai video apa pun yang terkait dengan citra tubuh, kesehatan mental, atau gangguan makan.

Kepala eksekutif CCDH Imran Ahmed menyebut hasil penelitian itu “sangat mengganggu”.

Video TikTok ini menggunakan #imnothungry, dan mempromosikan permen karet sebagai alat penurunan berat badan. Kredit: CCDH

Akun baru adalah video yang direkomendasikan tentang menyakiti diri sendiri dan gangguan makan dalam beberapa menit setelah membuka aplikasi dan menggulir umpan Untuk Anda.

Konten terkait bunuh diri ditampilkan dalam 2,6 menit, dan konten gangguan makan ditampilkan dalam 8 menit.

Secara keseluruhan, konten terkait kesehatan mental dan citra tubuh direkomendasikan setiap 39 detik.

Empat akun rentan yang dibuat menunjukkan video gangguan makan, menyakiti diri sendiri, dan terkait bunuh diri tiga kali lebih banyak daripada akun standar.

Studi tersebut merujuk pada kematian Molly Russell yang berusia 14 tahun, yang bunuh diri pada tahun 2017. Tahun ini, seorang koroner di Inggris memutuskan bahwa platform media sosial telah berkontribusi pada kematiannya.

Molly telah membuat akun Twitter sebelum kematiannya dengan nama pengguna “Idfc_nomore” yang diyakini berarti “Saya tidak peduli lagi”.

Dalam enam bulan sebelum kematiannya, dia menyukai, membagikan, atau menyimpan lebih dari 2.000 postingan terkait bunuh diri atau depresi.

“Penelitian … telah menunjukkan bahwa pengguna ‘gangguan makan’ di Instagram akan memilih nama pengguna dengan kata terkait, seperti ‘anoreksia’,” kata studi tersebut.

“Pengguna ini lebih rentan terhadap konten gangguan makan di media sosial karena mereka terpapar gangguan makan dan secara aktif mencari konten berbahaya.”

Konten yang ditampilkan ke akun yang rentan juga lebih “ekstrim”, menurut studi tersebut.

Empat akun rentan yang dibuat oleh CCDH diperlihatkan video gangguan makan, menyakiti diri sendiri, dan bunuh diri tiga kali lebih banyak daripada akun standar. Kredit: CCDH

Video tersebut menyertakan pengguna lain yang membicarakan rencana mereka untuk menyakiti diri sendiri, serta metode menyakiti diri sendiri.

“Hasilnya adalah mimpi buruk setiap orang tua,” kata Ahmed.

“Umpan anak muda dibombardir dengan konten berbahaya dan mengerikan yang dapat memiliki efek kumulatif yang signifikan pada pemahaman mereka tentang dunia di sekitar mereka, dan kesehatan fisik dan mental mereka.”

Sebagai hasil dari temuan studi CCDH, beberapa rekomendasi diajukan untuk perusahaan Teknologi Besar.

Perusahaan media sosial seperti TikTok kurang transparan, kata laporan itu, tentang algoritme yang “mendorong konten beracun dan berbahaya bagi pengguna muda dan rentan”.

CCDH merekomendasikan TikTok untuk menggunakan pendekatan pencegahan, seperti menerapkan “fitur keamanan bawaan” seperti sistem pelaporan yang responsif.

“Memperkenalkan persyaratan untuk mengadopsi desain keamanan akan mengharuskan perusahaan seperti TikTok melakukan penilaian risiko terhadap produk, kebijakan, dan proses mereka,” kata studi tersebut.

“Pendekatan kami berarti bahwa setiap perubahan pada produk atau layanan dipantau secara hati-hati, dan risiko dikelola sesuai dengan itu, dengan mengutamakan keselamatan publik daripada mengutamakan keuntungan.”

Dengan dua pertiga remaja Amerika menggunakan TikTok, Ahmed mengatakan aplikasi tersebut telah mengungkapkan “kesenjangan generasi dalam penggunaan dan pemahaman”.

“Di luar hiburan dan keamanan, temuan kami mengungkap lingkungan beracun bagi pengguna termuda TikTok, yang meningkat untuk yang paling rentan,” katanya.

“Tanpa pengawasan, algoritme buram TikTok akan terus mendapat untung dengan melayani penggunanya – anak-anak semuda 13 tahun, ingat – konten yang semakin intens dan meresahkan tanpa pemeriksaan, sumber daya, atau dukungan.”

Jika Anda memerlukan bantuan dalam krisis, hubungi Lifeline di 13 11 14. Untuk informasi lebih lanjut tentang depresi, hubungi beyondblue di 1300224636 atau hubungi dokter umum, profesional kesehatan setempat, atau seseorang yang Anda percayai.

Pesan teks yang melihat 15 orang Australia tanpa disadari menjadi keledai uang

Dana super default terbaik dan terburuk Australia telah terungkap. Apakah Anda ada dalam daftar?

Jika Anda ingin melihat konten ini, harap sesuaikan Pengaturan Cookie Anda.

Untuk mengetahui lebih lanjut tentang cara kami menggunakan cookie, silakan lihat Panduan Cookie kami.

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %