
| Lyhenne | Nimi ja kuvailutiedot | Lisenssi | Sijainti | Viite | Aineistoryhmä ja ohje | Hae käyttöoikeutta | Julkaisuvuosi | Tukitaso |
|---|---|---|---|---|---|---|---|---|
| Lyhenne | Nimi ja kuvailutiedot | Lisenssi | Sijainti | Viite | Aineistoryhmä ja ohje | Hae käyttöoikeutta | Julkaisuvuosi | Tukitaso |
Nämä aineistoversiot eivät vielä ole saatavilla Kielipankin kautta.
| Lyhenne | Nimi ja kuvailutiedot | Lisenssi | Muoto | Tukitaso | Yhteyshenkilö | Sijainti | Aineistoryhmä ja ohje | Muu tieto |
|---|---|---|---|---|---|---|---|---|
| Lyhenne | Nimi ja kuvailutiedot | Lisenssi | Muoto | Tukitaso | Yhteyshenkilö | Sijainti | Aineistoryhmä ja ohje | Muu tieto |
FinEst BERT is a Bidirectional Encoder Representations from Transformers (BERT) multilingual model trained from scratch, covering three languages: Finnish, Estonian, and English. Used for various NLP classification tasks on the mentioned three languages, supporting both monolingual and multilingual/crosslingual (knowledge transfer) tasks. Whole-word masking used during data preparation and training; trained for 40 epochs with sequence length 128 and another 4 epochs with sequence length 512. FinEst BERT model published here is in pytorch format.
Corpora used:
Finnish – STT articles, CoNLL 2017 shared task, Ylilauta downloadable version
Estonian – Ekspress Meedia articles, CoNLL 2017 shared task
English – English wikipedia
Kunkin aineistoversion tarkemmat tiedot päivitetään kuvailutietueeseen, joka löytyy pysyvällä tunnisteella (ks. linkki aineiston otsikon kohdalla).
Tämän sivun pysyvä tunniste: http://urn.fi/urn:nbn:fi:lb-2025101706
Viimeksi muokattu 2025-10-21