Meta publiceert machinelearningtaalmodel met 175 miljard parameters openbaar

Wetenschap Donderdag 05 Mei 2022 Tweakers

Meta maakt een trainingsmodel voor vertalingen openbaar voor wetenschappers. Het Open Pretrained Transformer-model is een nlp-model met 175 miljard parameters waar machinelearningwetenschappers gebruik van kunnen maken.

Bron: Meta publiceert machinelearningtaalmodel met 175 miljard parameters openbaar