Banques & Investissements

Goldman Sachs CIO : Nous pourrions adopter l’IA générative « en quelques mois »

Le rythme des nouveaux développements en matière d’intelligence artificielle est venu plus vite que prévu pour les leaders technologiques des entreprises. Beaucoup ont passé les derniers mois à se demander comment et où ils peuvent tirer parti des nouvelles capacités de l’IA générative et des grands modèles de langage, ou LLM, de la catégorisation de rames de documents commerciaux à l’écriture de code.

« La technologie évolue si vite sous nos yeux que je pense que c’est presque comme si la limite était nous-mêmes et être capable de la rationaliser », a déclaré Marco Argenti, directeur de l’information de Goldman Sachs.

Quelque 65 % des cadres interrogés pensent que l’IA générative aura un impact important sur leur organisation au cours des trois à cinq prochaines années, et 77 % ont déclaré qu’elle aurait un impact plus important sur la société que toute autre technologie émergente pendant cette période, selon une étude récente. par le cabinet d’audit et de conseil KPMG. Mais 60 % ont déclaré qu’ils étaient à un an ou deux de la mise en œuvre de leur première solution d’IA générative en raison d’obstacles tels que le talent, le coût et la confidentialité des données.

Le délai pourrait être plus court chez Goldman, qui a mis en place un certain nombre de preuves de concepts d’IA génératives, a déclaré Argenti. «Honnêtement, je ne pense pas que cela va prendre des années. Cela ressemble plus à des mois », a-t-il déclaré.

Argenti, qui a rejoint la société de Wall Street en 2019 après Amazon Web Services, où il était vice-président de la technologie, s’est entretenu avec Journal du directeur informatique, un autre titre du Dow Jones Group, pour parler des domaines dans lesquels il voit de la valeur dans l’IA générative et de ce qu’il fait aujourd’hui avec la technologie. Voici les faits saillants édités de la conversation.

L’une des premières choses que nous avons faites a été d’aborder, dans un pilote, le problème de savoir comment rendre les développeurs plus productifs avec un copilote et des outils similaires. La partie intéressante de l’automatisation du code est que vous pouvez obtenir des gains d’efficacité assez rapides. Mais je pense aussi que c’est au-delà des gains d’efficacité. Cela permet aux développeurs de se concentrer vraiment sur l’objectif et sur ce qui est vraiment important pour le client plutôt que sur certaines des tâches les plus répétitives.

Nous faisons bien plus que simplement y penser, nous essayons vraiment de prioriser certains cas d’utilisation, puis de commencer à investir dans ceux-ci et à mener des expériences d’une manière que nous considérons comme absolument sûre.

En ce moment, nous avons beaucoup de preuves de concepts en cours. Rien n’est au stade de la production. L’un, par exemple, est la classification et la catégorisation des documents. Dans notre industrie, nous recevons littéralement des millions de documents qui sont généralement sous la forme de contrats légaux pour des produits de toutes sortes, et cela peut être une obligation, cela peut être un prêt, cela peut être un dérivé. Nous devons extraire les informations pour les rendre compréhensibles à une machine, puis agir, donc prendre des décisions, en fonction de cela. Et nous devons également comprendre lorsque nous recevons un document entrant, de quel type de document s’agit-il ?

C’est quelque chose que nous utilisons pour faire l’IA traditionnelle, mais nous considérons les LLM comme un moyen potentiel de vraiment passer au niveau supérieur. Aussi, la synthèse, donc par exemple, être capable de résumer les appels de revenus, être capable de résumer nos propres recherches à partir d’un résumé quotidien.

Lorsqu’il s’agit de classer des documents, par exemple, nous avons constaté des précisions extrêmement encourageantes. Disons, au moins aussi bon que les humains.

En ce qui concerne le codage – la preuve de concept n’est pas assez grande pour être sûr de ces chiffres – mais je dirais que dans certains cas, nous avons vu jusqu’à 40 % du code écrit par l’IA être accepté par le développeur .

Le gain d’efficacité là-bas, je pense, pourrait être à deux chiffres. Je ne sais pas à quel point c’est dans les deux chiffres : 10 %, 20 %, 30 %, 40 %. Je pense qu’il est prudent de s’attendre à ce que quelque chose dans les deux chiffres inférieurs soit probablement raisonnable, mais c’est très tôt.

Très probablement, le résultat final sera égal ou inférieur car, à mesure que vous élargissez les cas d’utilisation, vous pourriez trouver des cas d’utilisation où vous avez moins d’efficacité. C’est en soi un chiffre assez extraordinaire si vous y réfléchissez. C’est effectivement du code que le développeur n’a pas écrit. Il s’agit donc en fait d’un nombre très élevé. Et c’est faussé par le fait qu’il s’agit d’une petite expérience et qu’il y a un peu d’auto-sélection des cas d’utilisation. Mais je pense que si nous nous en approchons, ce sera énorme.

Il est difficile de dire. Mon meilleur indicateur en ce moment est que cela se déplace à une vitesse incroyablement élevée et commence à être disponible dans certains des outils que nous utilisons déjà. Donc, honnêtement, je ne pense pas que cela prendra des années. Cela ressemble plus à des mois.

Mais je mentirais si je vous disais que j’ai une date exacte, car c’est quelque chose de nouveau pour nous tous.

Je pense que la plus grande contrainte en ce moment est qu’il y a tellement de choses que nous ne savons pas. Nous devons adapter nos cadres de contrôle pour nous assurer qu’il n’y a aucune menace pour nous-mêmes ou pour nos clients. Cela appelle à la prudence.

La seconde est la suivante : évidemment, cela se résume souvent au talent. Et bien sûr, il y a peu de gens qui connaissent l’IA en général, et il y a encore moins de gens qui connaissent les derniers LLM et transformateurs. Alors, comment s’entraine-t-on ? Et comment habilitons-nous nos employés ?

L’autre est que les grands hyperscalers exigent et consomment tellement des GPU disponibles qu’en fin de compte, il y a un peu de pénurie là-bas. Vous pouvez imaginer un point où vous n’aurez plus de ressources illimitées pour former vos modèles, et cela pourrait être un peu une course pour sécuriser certaines de ces ressources.

Isabelle Bousquette à

Cet article a été publié par Dow Jones Newswires, un autre service du groupe Dow Jones