Microsoft va proposer une version de ChatGPT axée sur la confidentialité
- Julien Russo
- Il y a 1 an (Màj il y a 1 an)
- 💬 Réagir
- 🔈 Écouter
Depuis le début de l'année, ChatGPT a bouleversé le monde de l'intelligence artificielle en surprenant tout le monde. L'entreprise qui s'est le plus investie auprès d'OpenAI est sans aucun doute Microsoft qui l'a intégré à plusieurs de ses services. Un récent rapport mentionne que Microsoft va bientôt proposer un ChatGPT un peu spécial qui pourra être utilisé dans le milieu professionnel sans problème.
Microsoft et OpenAI, le nouveau projet
Selon un rapport de The Information, une version de ChatGPT spécial "confidentialité" va bientôt être proposé aux clients de Microsoft. L'entreprise va fournir une version de ChatGPT axée sur la protection des données qui s'exécutera sur des serveurs dédiés du cloud Azure, ce qui signifie que les données du ChatGPT de Microsoft ne communiqueront pas avec le système principal d'OpenAI. Cette approche permettra de préserver la vie privée des utilisateurs ainsi que les informations confidentielles des entreprises (qui sont parfois transmises dans les requêtes avec l'intelligence artificielle).
Microsoft prendra en charge la gestion de ses propres serveurs cloud, les coûts pour exploiter cette version spéciale de ChatGPT pourraient être doublés, voire triplés par rapport à l'abonnement actuel d'OpenAI pour accéder à ChatGPT-4.
Dans cette offre, Microsoft va s'adresser à toutes les entreprises qui auraient besoin d'un "coup de pouce" par l'intelligence artificielle pour leurs différents projets. De nombreux grands clients, y compris les banques, ont des contrats avec Microsoft Azure (pour le cloud), ce qui pourrait s'avérer avantageux pour les persuader que Microsoft gère leurs données en toute sécurité. Quand on possède une base de clients déjà fidèles, c'est toujours un plus pour inclure ou faire payer un nouveau service.
Cette solution devrait attirer des entreprises comme Samsung qui ont récemment alerté leurs employés sur la nécessité de ne plus interagir avec ChatGPT dans le cadre professionnel. La direction de la firme sud-coréenne s'est rendu compte que du code sensible avait été communiqué à l'intelligence artificielle afin de voir si celui-ci était correct et s'il pouvait être amélioré.