Excellente remarque :-) Mathématiquement cela est un problème... mais algorithmiquement, cela ne pose pas de problème pour effectuer une descente de gradient. Un excellent article : medium.com/@kanchansarkar/relu-not-a-differentiable-function-why-used-in-gradient-based-optimization-7fef3a4cecec Merci d'avoir soulevé ce point !
Merci beaucoup
Merci également à vous !
Super contenu . Merci infiniment
Merci :-)
La fonction ReLU n'est pas dérivable en zéro, comment on fait pour le gradient?
Excellente remarque :-)
Mathématiquement cela est un problème... mais algorithmiquement, cela ne pose pas de problème pour effectuer une descente de gradient.
Un excellent article :
medium.com/@kanchansarkar/relu-not-a-differentiable-function-why-used-in-gradient-based-optimization-7fef3a4cecec
Merci d'avoir soulevé ce point !