Assinale a alternativa que melhor define a função de ativação Relu?
a.
é um neurônio sigmóide.
b.
é um conjunto de neurônios interconectados.
c.
função de unidade linear retificada, que não necessariamente é uma função linear, ou seja, uma variação nos pesos ou BIAS pode ser propagada para neurônios em outras camadas e ativá-los ou não, dependendo da proximidade da saída estiver de zero, ela ativará ou não um determinado neurônio.
d.
é próxima de uma função sigmoide, porém suas saídas não tem apenas a variação de número entre 0 e 1, ela possui saídas reais entre -1 e 1.
e.
o neurônio Maxout generaliza a função ReLU e sua versão Leaky ReLyu
Respostas
respondido por:
2
Resposta:
C.função de unidade linear retificada, que não necessariamente é uma função linear, ou seja, uma variação nos pesos ou BIAS pode ser propagada para neurônios em outras camadas e ativá-los ou não, dependendo da proximidade da saída estiver de zero, ela ativará ou não um determinado neurônio
Explicação:
respondido por:
0
Resposta:
C
Explicação:
função de unidade linear retificada, que não necessariamente é uma função linear, ou seja, uma variação nos pesos ou BIAS pode ser propagada para neurônios em outras camadas e ativá-los ou não, dependendo da proximidade da saída estiver de zero, ela ativará ou não um determinado neurônio.
Perguntas similares
3 anos atrás
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás