David SacksKayla Bartkowski/Getty Images * A inteligência artificial geral depende da ideia de que a IA pode alcançar níveis humanos de raciocínio.
O czar da IA e das criptomoedas da Casa Branca, David Sacks, diz que ainda não chegamos lá.
O investidor disse que a IA ainda precisa de input humano para fornecer "valor comercial significativo."
David Sacks, o czar da IA e das criptomoedas da Casa Branca, está a deitar água fria no entusiasmo em torno da AGI.
As empresas de IA estão em uma corrida para alcançar a IAG, ou inteligência geral artificial, considerada comumente uma forma de IA que pode atingir níveis humanos de raciocínio. O avanço contínuo da IA levou alguns a acreditar que a tecnologia resultará em uma eliminação em larga escala de empregos ou até mesmo em piores resultados, como a extinção humana.
Sacks, um investidor em tecnologia que apoiou grandes empresas como Airbnb, Facebook e Uber, escreveu em uma postagem no X no sábado que a IA não progrediu tão rapidamente quanto muitos previram — especificamente, a ideia de que a IA irá "autoaperfeiçoar-se" e rapidamente alcançar "superinteligência divina" foi exagerada.
"Nada disso nega o progresso. Estamos a ver uma forte melhoria na qualidade, usabilidade e preço/desempenho entre as principais empresas de modelos. Isto é produto de uma grande engenharia e deve ser celebrado," escreveu Sacks na sua publicação. "Apenas não é matéria para pronúncias apocalípticas. Oppenheimer já saiu do edifício."
Um dos cenários de apocalipse que Sacks rejeitou em seu post é o medo de que a IA leve a perdas massivas de empregos.
O investidor disse que isso ainda está por se concretizar, uma vez que a IA depende de muitos inputs humanos para prompts e para verificação.
"Isso significa que as previsões apocalípticas de perda de empregos são tão exageradas quanto a AGI em si," disse ele. "Em vez disso, a verdade de que 'você não vai perder seu emprego para a IA, mas para alguém que usa a IA melhor do que você' está se mantendo bem."
Sacks não é o único cético em relação à AGI.
O cofundador do Google Brain, Andrew Ng, disse em uma palestra do Y Combinator em junho que "a AGI foi superavaliada" e que "haverá muitas coisas que os humanos podem fazer que a IA não pode."
O CEO do Google, Sundar Pichai, disse em um podcast de Lex Fridman que gosta de usar o termo AJI, ou "inteligência artificial serrilhada", para descrever a fase atual da IA — uma que é notavelmente inteligente, mas ainda pode cometer erros básicos.
Sacks não respondeu a um pedido de comentário.
Leia o artigo original no Business Insider
Ver Comentários
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
David Sacks diz que o cenário apocalíptico de a IA eliminar empregos é 'exagerado'
David SacksKayla Bartkowski/Getty Images * A inteligência artificial geral depende da ideia de que a IA pode alcançar níveis humanos de raciocínio.
David Sacks, o czar da IA e das criptomoedas da Casa Branca, está a deitar água fria no entusiasmo em torno da AGI.
As empresas de IA estão em uma corrida para alcançar a IAG, ou inteligência geral artificial, considerada comumente uma forma de IA que pode atingir níveis humanos de raciocínio. O avanço contínuo da IA levou alguns a acreditar que a tecnologia resultará em uma eliminação em larga escala de empregos ou até mesmo em piores resultados, como a extinção humana.
Sacks, um investidor em tecnologia que apoiou grandes empresas como Airbnb, Facebook e Uber, escreveu em uma postagem no X no sábado que a IA não progrediu tão rapidamente quanto muitos previram — especificamente, a ideia de que a IA irá "autoaperfeiçoar-se" e rapidamente alcançar "superinteligência divina" foi exagerada.
"Nada disso nega o progresso. Estamos a ver uma forte melhoria na qualidade, usabilidade e preço/desempenho entre as principais empresas de modelos. Isto é produto de uma grande engenharia e deve ser celebrado," escreveu Sacks na sua publicação. "Apenas não é matéria para pronúncias apocalípticas. Oppenheimer já saiu do edifício."
Um dos cenários de apocalipse que Sacks rejeitou em seu post é o medo de que a IA leve a perdas massivas de empregos.
O investidor disse que isso ainda está por se concretizar, uma vez que a IA depende de muitos inputs humanos para prompts e para verificação.
"Isso significa que as previsões apocalípticas de perda de empregos são tão exageradas quanto a AGI em si," disse ele. "Em vez disso, a verdade de que 'você não vai perder seu emprego para a IA, mas para alguém que usa a IA melhor do que você' está se mantendo bem."
Sacks não é o único cético em relação à AGI.
O cofundador do Google Brain, Andrew Ng, disse em uma palestra do Y Combinator em junho que "a AGI foi superavaliada" e que "haverá muitas coisas que os humanos podem fazer que a IA não pode."
O CEO do Google, Sundar Pichai, disse em um podcast de Lex Fridman que gosta de usar o termo AJI, ou "inteligência artificial serrilhada", para descrever a fase atual da IA — uma que é notavelmente inteligente, mas ainda pode cometer erros básicos.
Sacks não respondeu a um pedido de comentário.
Leia o artigo original no Business Insider
Ver Comentários