Le chatbot Gemini de Google a désormais de la mémoire

Crédits image : Rafael Henrique/SOPA Images/LightRocket / Getty Images

Le chatbot Gemini de Google peut désormais mémoriser des éléments tels que des informations sur votre vie, votre travail et vos préférences personnelles.

Comme l’ont signalé des utilisateurs sur X (et le compte officiel de Google ), une fonctionnalité de « mémoire » a commencé à être déployée auprès de certains utilisateurs de Gemini, dont ce journaliste. Comme la mémoire de ChatGPT , celle de Gemini ajoute du contexte à la conversation en cours. Par exemple, dites à Gemini de se souvenir des aliments que vous aimez et la prochaine fois que vous demanderez au robot des recommandations de restaurants, il pourra adapter ses suggestions à vos préférences culinaires.

La mémoire n’est disponible que pour les abonnés au forfait Google One AI Premium de 20 $ par mois de Google , selon 9to5Google, et elle n’a pas encore fait son chemin vers les applications Gemini sur iOS et Android – uniquement le client Web.

Mémoires de Google Gemini
Crédits image : Google

Dans l’interface utilisateur de Gemini, Google donne quelques exemples de souvenirs d’amorçage potentiellement utiles, comme « Utilisez un langage simple et évitez le jargon », « Je ne peux écrire du code qu’en JavaScript » et « Lors de la planification d’un voyage, incluez le coût par jour ». L’entreprise précise que la fonctionnalité, qui ne prend en charge que les invites en anglais pour l’instant, peut être désactivée à tout moment, mais que les souvenirs sont stockés jusqu’à leur suppression manuelle.

Mais les mémoires Gemini ne sont pas utilisées pour l’entraînement du modèle. « Vos informations enregistrées ne sont jamais partagées ni utilisées pour entraîner le modèle », a déclaré un porte-parole de Google à TechCrunch par e-mail.

Les fonctionnalités de mémoire telles que celles de ChatGPT et de Gemini peuvent être exploitées si elles ne sont pas soigneusement conçues avec des garde-fous. Plus tôt cette année, un chercheur en sécurité a découvert que des pirates pouvaient discrètement implanter de « fausses » mémoires dans ChatGPT pour voler efficacement les données d’un utilisateur à perpétuité.

Keep Up to Date with the Most Important News

By pressing the Subscribe button, you confirm that you have read and are agreeing to our Privacy Policy and Terms of Use