Apple interdit l’usage de ChatGPT à ses employés

Apple a décidé de restreindre l’utilisation de ChatGPT à ses employés, selon The Wall Street Journal. La raison ? Apple développe sa propre technologie d’intelligence artificielle.

Apple et le culte du secret. On y revient toujours. Dans ce cas précis, la firme de Cupertino pense que son personnel pourrait divulguer des informations confidentielles via les outils d’IA. C’est pourquoi la firme de Cupertino a pris une décision radicale : l’interdiction de ChatGPT et de Copilot de GitHub.

Protection des données : l’IA inquiète
D’autres entreprises, comme les banques et les institutions de santé, ont interdit ChatGPT par crainte que leurs employés ne divulguent des informations confidentielles au chatbot. Samsung a même interdit à ses employés d’utiliser des outils d’IA après avoir découvert que du code source sensible avait été téléchargé sur la plateforme.

La société OpenAI a déjà vendu à Morgan Stanley un service privé de ChatGPT. Ce service permet aux employés de poser des questions et d’analyser des milliers de documents de recherche. Microsoft travaille également sur une version de ChatGPT destinée aux clients professionnels afin de garantir la confidentialité des données.

Apple met le paquet
Ces restrictions d’Apple s’inscrivent dans le cadre de leurs efforts pour développer leurs propres modèles de langage et technologies d’IA. John Giannandrea, vice-président principal de la stratégie d’apprentissage automatique et d’IA, dirige les opérations. Avant de rejoindre Apple, Giannandrea travaillait chez Google et relève désormais directement de Tim Cook, le PDG d’Apple.

Enfin, ChatGPT d’OpenAI, qui était déjà accessible sur le web et via des applications iOS tierces, a récemment lancé sa propre application officielle pour iPhone et iPad.