David SacksKayla Bartkowski/Getty Images * L'intelligence artificielle générale repose sur l'idée que l'IA peut atteindre des niveaux de raisonnement humains.
Le responsable de l'IA et des cryptomonnaies de la Maison Blanche, David Sacks, dit que nous n'y sommes pas encore tout à fait.
L'investisseur a déclaré que l'IA a encore besoin de l'intervention humaine pour fournir "une valeur commerciale significative."
David Sacks, le responsable de l'IA et de la crypto de la Maison Blanche, jette un froid sur le train de hype de l'AGI.
Les entreprises d'IA se battent pour atteindre l'AGI, ou intelligence générale artificielle, communément considérée comme une forme d'IA capable d'atteindre des niveaux de raisonnement humains. L'avancement continu de l'IA a conduit certains à croire que la technologie entraînera une suppression massive d'emplois ou même des résultats pires, comme l'extinction humaine.
Sacks, un investisseur technologique qui a soutenu des entreprises majeures telles qu'Airbnb, Facebook et Uber, a écrit dans un post sur X samedi que l'IA n'a pas progressé aussi rapidement que beaucoup l'avaient prédit — spécifiquement, l'idée que l'IA va "s'auto-améliorer" et atteindre rapidement une "superintelligence divine" a été exagérée.
"Aucun de cela ne remet en question les progrès. Nous constatons une forte amélioration de la qualité, de l'utilisabilité et du rapport qualité/prix parmi les meilleures entreprises de modèles. C'est le fruit d'un grand ingénierie et cela devrait être célébré," a écrit Sacks dans son post. "Ce n'est tout simplement pas le sujet de déclarations apocalyptiques. Oppenheimer a quitté le bâtiment."
L'un des scénarios apocalyptiques que Sacks a rejetés dans son post est la peur que l'IA entraîne des pertes massives d'emplois.
L'investisseur a déclaré que cela reste à voir puisque l'IA repose sur beaucoup d'input humain pour les invites et pour la vérification.
"Cela signifie que les prévisions apocalyptiques de pertes d'emplois sont aussi exagérées que l'AGI elle-même," a-t-il déclaré. "Au lieu de cela, le truisme selon lequel 'vous n'allez pas perdre votre emploi à cause de l'IA mais à cause de quelqu'un qui utilise l'IA mieux que vous' tient bien."
Sacks n'est pas le seul détracteur de l'AGI.
Le cofondateur de Google Brain, Andrew Ng, a déclaré lors d'une conférence Y Combinator en juin que "l'AGI a été surestimée" et que "il y aura beaucoup de choses que les humains peuvent faire que l'IA ne peut pas."
Le PDG de Google, Sundar Pichai, a déclaré dans un podcast de Lex Fridman qu'il aime utiliser le terme AJI, ou "intelligence jagged artificielle", pour décrire la phase actuelle de l'IA - une phase remarquablement intelligente mais qui peut encore faire des erreurs de base.
Sacks n'a pas répondu à une demande de commentaire.
Lisez l'article original sur Business Insider
Voir les commentaires
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
David Sacks dit que le scénario apocalyptique selon lequel l'IA éliminerait des emplois est "surestimé".
David SacksKayla Bartkowski/Getty Images * L'intelligence artificielle générale repose sur l'idée que l'IA peut atteindre des niveaux de raisonnement humains.
David Sacks, le responsable de l'IA et de la crypto de la Maison Blanche, jette un froid sur le train de hype de l'AGI.
Les entreprises d'IA se battent pour atteindre l'AGI, ou intelligence générale artificielle, communément considérée comme une forme d'IA capable d'atteindre des niveaux de raisonnement humains. L'avancement continu de l'IA a conduit certains à croire que la technologie entraînera une suppression massive d'emplois ou même des résultats pires, comme l'extinction humaine.
Sacks, un investisseur technologique qui a soutenu des entreprises majeures telles qu'Airbnb, Facebook et Uber, a écrit dans un post sur X samedi que l'IA n'a pas progressé aussi rapidement que beaucoup l'avaient prédit — spécifiquement, l'idée que l'IA va "s'auto-améliorer" et atteindre rapidement une "superintelligence divine" a été exagérée.
"Aucun de cela ne remet en question les progrès. Nous constatons une forte amélioration de la qualité, de l'utilisabilité et du rapport qualité/prix parmi les meilleures entreprises de modèles. C'est le fruit d'un grand ingénierie et cela devrait être célébré," a écrit Sacks dans son post. "Ce n'est tout simplement pas le sujet de déclarations apocalyptiques. Oppenheimer a quitté le bâtiment."
L'un des scénarios apocalyptiques que Sacks a rejetés dans son post est la peur que l'IA entraîne des pertes massives d'emplois.
L'investisseur a déclaré que cela reste à voir puisque l'IA repose sur beaucoup d'input humain pour les invites et pour la vérification.
"Cela signifie que les prévisions apocalyptiques de pertes d'emplois sont aussi exagérées que l'AGI elle-même," a-t-il déclaré. "Au lieu de cela, le truisme selon lequel 'vous n'allez pas perdre votre emploi à cause de l'IA mais à cause de quelqu'un qui utilise l'IA mieux que vous' tient bien."
Sacks n'est pas le seul détracteur de l'AGI.
Le cofondateur de Google Brain, Andrew Ng, a déclaré lors d'une conférence Y Combinator en juin que "l'AGI a été surestimée" et que "il y aura beaucoup de choses que les humains peuvent faire que l'IA ne peut pas."
Le PDG de Google, Sundar Pichai, a déclaré dans un podcast de Lex Fridman qu'il aime utiliser le terme AJI, ou "intelligence jagged artificielle", pour décrire la phase actuelle de l'IA - une phase remarquablement intelligente mais qui peut encore faire des erreurs de base.
Sacks n'a pas répondu à une demande de commentaire.
Lisez l'article original sur Business Insider
Voir les commentaires