Bäst från 2021: Tenfiftys topp 3 mest lästa bloggartiklar

2021 har nått sitt slut- ett minst sagt annorlunda år där covid-19 vänt upp och ner på hela världen och fått oss att omvärdera allt vi tagit för givet. Men vi har fortsatt att dela med oss av våra medarbetares kunskaper och insikter här på vår blogg och i den här artikeln har vi summerat våra 3 mest lästa artiklar under 2021. Trevlig läsning!

 

1.  (TF)² #2 – Svensk textgenerering och GPT-3.

GPT-3 är ett av de mest imponerande resultaten i AI-historien och ger dessutom djupare insikter i språklig intelligens.

GPT-3 som står för Generative Pre-trained Transformer 3 är en autoregressiv språkmodell som använder djupinlärning för att producera människoliknande text. De enda AI-modeller som uppvisar någon sorts rudimentär generell intelligens är de största textmodellerna och den i särklass mest kända textmodellen, som är byggd på transformatorer, är GPT-3. I den här artikeln beskriver David Fendrich några egna svenska exempel på vad GPT-3 klarar av.

2. Förbättrad processkontroll och miljö med AI

Maskininlärning kan ofta användas i stället för komplicerade traditionella matematiska metoder i processindustritillämpningar.

I den här bloggposten beskriver vi hur vi med hjälp av maskininlärning hjälpte Södra Cell Värö, en av världens mest moderna pappersmassafabriker, att uppskatta framtida pH-värden i sin process och använda detta för automatiserad processkontroll.

 

3. (TF)² #1 – Transformers tar över världen!

Transformermodeller är ett sorts neuronnät som håller på att ta över världen, framförallt när det gäller sekventiell data.

I ett traditionellt neuronnät (en så kallad flerlagersperceptron), så uttrycker du ditt problem i ett fixerat antal inparametrar, som alla har var sin betydelse, lite som kolumnerna i ett kalkylark. Men ofta behöver man hantera sekventiell data som inte har en fördefinierad längd. Det kan till exempel handla om tidsserieanalys, ljud, betydelsen i en text (en sekvens av ord) eller ingredienserna i ett recept. Det vanligaste sättet att hantera detta har varit med olika sorters rekursiva neurala nätverk. De fungerar relativt väl men har kända begränsningar, till exempel så går det inte att parallellisera en sekventiell beräkning.

En transformer-modell är, förenklat, en modell där en hel sekvens (upp till en viss maxlängd) skickas in parallellt, tillsammans med vilken position i sekvensen som varje element har. Detta gör bland annat att nätverket själv kan lära sig hur olika positioner är relaterade och det går att beräkna parallellt. Detta kan du läsa mer om i den här artikeln.

Vi hoppas att du hittade några intressanta artiklar. Letar du efter mer information om Tenfifty, besök vår startsida eller följ oss på Linkedin.

Author

Benita Bruzelius
Head of Marketing