Ga naar pagina
volgende pagina →
volgende pagina →
volgende pagina →

Oorspronkelijk bestand (1.275 × 1.650 pixels, bestandsgrootte: 297 kB, MIME-type: application/pdf, 14 pagina's)

Beschrijving

Beschrijving
English: The past 3 years of work in NLP have been characterized by the development and deployment of ever larger language models, especially for English. BERT, its variants, GPT-2/3, and others, most recently Switch-C, have pushed the boundaries of the possible both through architectural innovations and through sheer size. Using these pretrained models and the methodology of fine-tuning them for specific tasks, researchers have extended the state of the art on a wide array of tasks as measured by leaderboards on specific benchmarks for English. In this paper, we take a step back and ask: How big is too big? What are the possible risks associated with this technology and what paths are available for mitigating those risks? We provide recommendations including weighing the environmental and financial costs first, investing resources into curating and carefully documenting datasets rather than ingesting everything on the web, carrying out pre-development exercises evaluating how the planned approach fits into research and development goals and supports stakeholder values, and encouraging research directions beyond ever larger language models.
Datum
Bron

https://dl.acm.org/doi/abs/10.1145/3442188.3445922

https://doi.org/10.1145/3442188
Auteur Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell

Licentie

w:nl:Creative Commons
naamsvermelding
Dit bestand is gelicenseerd onder de Creative Commons Naamsvermelding 4.0 Internationaal licentie.
De gebruiker mag:
  • Delen – het werk kopiëren, verspreiden en doorgeven
  • Remixen – afgeleide werken maken
Onder de volgende voorwaarden:
  • naamsvermelding – U moet op een gepaste manier aan naamsvermelding doen, een link naar de licentie geven, en aangeven of er wijzigingen in het werk zijn aangebracht. U mag dit op elke redelijke manier doen, maar niet zodanig dat de indruk wordt gewekt dat de licentiegever instemt met uw werk of uw gebruik van zijn werk.

Bijschriften

Beschrijf in één regel wat dit bestand voorstelt
On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜

application/pdf

Bestandsgeschiedenis

Klik op een datum/tijd om het bestand te zien zoals het destijds was.

Datum/tijdMiniatuurAfmetingenGebruikerOpmerking
huidige versie1 mrt 2023 14:41Miniatuurafbeelding voor de versie van 1 mrt 2023 14:411.275 × 1.650, 14 pagina's (297 kB)PamputtUploaded a work by Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell from https://dl.acm.org/doi/abs/10.1145/3442188.3445922 https://doi.org/10.1145/3442188 with UploadWizard

Geen enkele pagina gebruikt dit bestand.

Globaal bestandsgebruik

Dit bestand wordt op de volgende andere wiki’s gebruikt:

Metadata