Starten Sie Ihre Suche...


Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir Cookies verwenden. Weitere Informationen

A Comparative Study of Using Pre-trained Language Models for Toxic Comment Classification.

Jure Leskovec; Marko Grobelnik; Marc Najork; Jie Tang; Leila Zia (Hrsg). Proceedings of the Web Conference 2021: Companion of The World Wide Web Conference WWW 2021: April 19–23, 2021; Ljubljana, Slovenia. New York, NY: ACM Association for Computing Machinery 2021 S. 500 - 507

Erscheinungsjahr: 2021

ISBN/ISSN: 978-1-4503-8313-4

Publikationstyp: Diverses (Konferenzbeitrag)

Sprache: Englisch

Doi/URN: 10.1145/3442442.3452313

Volltext über DOI/URN

Website
GeprüftBibliothek

Inhaltszusammenfassung


  • BERT
  • RoBERTa
  • XLM
  • fine-tuning
  • hate speech
  • language model
  • neural networks
  • pre-training
  • toxic comment

Autoren


Zhao, Zhixue (Autor)
Zhang, Ziqi (Autor)

Verknüpfte Personen