Precisamos de uma forma de verificar o trabalho da IA. Não confiar em um único modelo. Verificar através de muitos.
Por isso estou de olho em projetos como o Mira. Eles estão construindo uma camada de verificação. Pense nisso como verificadores de fatos para as saídas da IA.
Deixamos as máquinas criarem. Depois, deixamos as redes verificarem. Se vamos permitir que a IA toque dinheiro real e tome decisões reais, precisamos de comprovativos.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Eu costumava confiar na IA. Depois ela me disse com 100% de confiança que um fato básico estava errado.
Esse é o problema. A IA não gagueja. Não diz “talvez”. Parece segura mesmo quando está inventando coisas.
Agora imagine essa IA “segura, mas errada” gerindo dinheiro. Escrevendo documentos legais. Rodando bots.
Assustador, não é?
#mira $MIRA @Mira - Camada de Confiança da IA #Mira
Precisamos de uma forma de verificar o trabalho da IA. Não confiar em um único modelo. Verificar através de muitos.
Por isso estou de olho em projetos como o Mira. Eles estão construindo uma camada de verificação. Pense nisso como verificadores de fatos para as saídas da IA.
Deixamos as máquinas criarem. Depois, deixamos as redes verificarem.
Se vamos permitir que a IA toque dinheiro real e tome decisões reais, precisamos de comprovativos.
A confiança é conquistada. Não gerada