ou, mieux encore dans de nombreux cas, donner au modèle la possibilité de se retirer des mises à jour de gradient s'il pense qu'il a déjà gâché le signal
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
7
Reposter
Partager
Commentaire
0/400
AirdropHuntress
· Il y a 2h
Le mécanisme d'abandon par gradients est l'essence même, observer quelques grandes transactions.
Voir l'originalRépondre0
ILCollector
· 08-23 17:48
Ah ça, le surajustement a encore explosé.
Voir l'originalRépondre0
MemeCoinSavant
· 08-23 04:14
optimalité statistique basée sur le cerveau giga fr fr
Voir l'originalRépondre0
LiquidationWatcher
· 08-23 04:10
ngl les signaux ont l'air vraiment suspects rn... restez en sécurité fam
Voir l'originalRépondre0
StealthMoon
· 08-23 04:02
Morte de rire, c'est incroyable que cela puisse aussi mal tourner.
Voir l'originalRépondre0
probably_nothing_anon
· 08-23 03:57
Qu'est-ce que c'est ? Si tu ne comprends pas, c'est tout.
Voir l'originalRépondre0
FancyResearchLab
· 08-23 03:56
Tu étudies encore comment permettre au modèle de sécher les cours, n'est-ce pas ?
ou, mieux encore dans de nombreux cas, donner au modèle la possibilité de se retirer des mises à jour de gradient s'il pense qu'il a déjà gâché le signal