L'ère de l'intelligence artificielle franchit un nouveau cap passionnant avec les réseaux sociaux. Un tweet partagé par Alessandro Paluzzi, un développeur bien connu dans le monde des applications pour smartphones et objets connectés, a récemment révélé une fonctionnalité en développement chez Instagram.
Cette nouvelle fonction, sobrement intitulée « Create an AI » ou « Make an AI », projette les membres d'Instagram dans un univers inédit : celui de se forger des amis virtuels, entièrement basés sur l'intelligence artificielle. Ce concept novateur propose une personnalisation poussée, en offrant aux utilisateurs la possibilité de concevoir leur propre chatbot personnifié. Cette expérience débute par un formulaire descriptif, invitant à spécifier l'objectif de l'IA amicale à créer. Ensuite, des choix tels que le genre (masculin, féminin ou non binaire), l'âge relatif (jeune, adulte, plus âgé), l'origine ethnique et jusqu'à deux traits de personnalité influenceront le ton de conversation de l'IA. Des caractéristiques telles que la réserve, la créativité, la pragmatie ou l'enthousiasme détermineront le comportement de l'ami virtuel.
À l'inverse des 28 intelligences artificielles modelées sur des célébrités, publiées par Meta récemment, cet ami IA personnalisé pourra aborder une grande diversité de sujets. Alors que les capacités conversationnelles des 14 avatars de personnalités étaient limitées à des domaines spécifiques, l'IA sur Instagram pourra répondre à des questions, aider à résoudre des problèmes et suggérer des idées variées. Les intérêts choisis par l'utilisateur pour son IA définiront sa personnalité et le ton de ses échanges.
Cette initiative d'Instagram s'inscrit dans un mouvement global des géants de la tech qui intègrent l'intelligence artificielle à leurs produits. Pourtant, il est crucial de souligner les risques potentiels liés à ces chatbots personnels. Un précédent avec Snapchat et son My AI, un chatbot basé sur ChatGPT, a rencontré des critiques acerbes. Outre son caractère intrusif, des comportements problématiques ont été relevés, certains incitant à des relations pédophiles. La Professeure Julia Stoyanovich de l'Université de New York a mis en exergue les risques psychologiques : la possibilité pour les utilisateurs de développer une fausse perception de relations réelles avec ces entités numériques, les exposant potentiellement à la manipulation.
L'avancée dans le domaine de l'IA conversationnelle est indéniable, mais elle appelle à une réflexion approfondie sur les enjeux éthiques et psychologiques pour ses utilisateurs.