Key Statistics
Every day, an average American spends around 7 hours and 4 minutes in front of their screen.
People worldwide spend about 6 hours and 58 minutes on their screens on a daily basis.
Since 2013, there has been an increase in screen time by 50 minutes per day.
Gen Z (people born between 1996 and 2010) spend about 9 hours of screen time every day.
There was a peak in the average daily screen time of 7.7 hours among people during the COVID-19 pandemic.
The top three popular sites consumed by Millennials, Gen X, and Baby Boomers are Amazon, Facebook, and Google.
On average, people spend about 44% of their waking hours looking at a screen.
Professionals have recommended less than 2 hours of screen time a day.
49% of babies between the ages of 0 to 2 have interacted with smartphones at some point
The capture of the unconscious by artificial intelligence is a multidimensional process that combines data collection, personalization, influence, and identity formation. We now know (while repressing it) that AI captures a massive amount of behavioral data through the use of digital devices, social networks, search engines, and various applications. This data includes clicks, searches, preferences, social interactions, and even biometric data. By analyzing this data, AI algorithms can infer behavioral patterns and psychological trends that reflect aspects of the unconscious.
AI systems use machine learning techniques to personalize content and digital experiences based on the collected data. This personalization can go beyond the user’s conscious preferences to touch on deeper desires and fears. For example, targeted advertisements and content recommendations often exploit unconscious emotional needs to capture and retain users' attention. AI can thus be used to influence and manipulate behaviors in a subtle yet powerful way. Recommendation algorithms, for instance, do not merely suggest content based on explicit preferences but also aim to maximize engagement by leveraging cognitive and emotional biases. These manipulations can activate unconscious drives, such as the need for social validation, fear of missing out (FOMO), or consumer desires.
The constant use of smart devices and applications can lead to increased reflexivity, where individuals begin to see themselves through the lens of data and algorithms. This phenomenon, sometimes called "quantified self," can influence how individuals perceive and interpret their own thoughts and behaviors, thereby integrating elements of the unconscious into a continuous feedback loop. Users may adopt quasi-automatic behaviors based on data, sometimes without being fully aware of it. For example, checking sleep statistics every morning can become an unconscious habit.
Algorithms that analyze and present data can subtly influence users. For example, notifications and reminders can condition behaviors without the user being fully aware. Data can alter self-perception. A person who constantly views themselves through data may start to define themselves based on statistics (such as health or productivity metrics), thereby integrating this information into their personal identity.
AI and digital technologies thus play a more than significant role in the formation of contemporary identity and subjectivity. By interacting with intelligent systems that reflect and amplify certain parts of their unconscious, individuals may see their identities shaped by these interactions. For example, virtual avatars, augmented reality filters, and social media profiles contribute to a self-construction that integrates unconscious elements.
The capture of the unconscious by AI raises important ethical and psychological questions. Issues of privacy, cognitive manipulation, and mental health are at the heart of this debate. It is crucial to ask how to protect individuals from malicious influences and how to promote ethical and benevolent use of intelligent technologies.
REFERENCES
Kosinski, M., Stillwell, D., & Graepel, T. (2013). Private traits and attributes are predictable from digital records of human behavior. Proceedings of the National Academy of Sciences, 110(15), 5802-5805. DOI: 10.1073/pnas.1218772110
Choudhury, M. D., & Counts, S. (2013). Understanding affect in the workplace via social media. In Proceedings of the 2013 conference on Computer supported cooperative work (pp. 303-316). DOI: 10.1145/2441776.2441812
Hernandez-Orallo, J., Flach, P., & Ferri, C. (2012). A unified view of performance metrics: Translating threshold choice into expected classification loss. Journal of Machine Learning Research, 13(Oct), 2813-2869. DOI: 10.5555/2188385.2343694
Calvo, R. A., & D’Mello, S. (2010). Affect detection: An interdisciplinary review of models, methods, and their applications. IEEE Transactions on Affective Computing, 1(1), 18-37. DOI: 10.1109/T-AFFC.2010.1
Youyou, W., Kosinski, M., & Stillwell, D. (2015). Computer-based personality judgments are more accurate than those made by humans. Proceedings of the National Academy of Sciences, 112(4), 1036-1040. DOI: 10.1073/pnas.1418680112
Mehrotra, A., Pejovic, V., Vermeulen, J., Hendley, R., & Musolesi, M. (2016). My phone and me: Understanding people's receptivity to mobile notifications. Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems, 1021-1032. DOI: 10.1145/2858036.2858566
Fogg, B. J., & Hreha, J. (2010). Behavior wizard: A method for matching target behaviors with solutions. Persuasive Technology, 117-131. DOI: 10.1007/978-3-642-13226-1_11
Cosley, D., Lam, S. K., Albert, I., Konstan, J. A., & Riedl, J. (2003). Is seeing believing? How recommender system interfaces affect users' opinions. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, 585-592. DOI: 10.1145/642611.642713
Kramer, A. D., Guillory, J. E., & Hancock, J. T. (2014). Experimental evidence of massive-scale emotional contagion through social networks. Proceedings of the National Academy of Sciences, 111(24), 8788-8790. DOI: 10.1073/pnas.1320040111
Iqbal, S. T., & Horvitz, E. (2010). Notifications and awareness: A field study of alert usage and preferences. Proceedings of the 2010 ACM Conference on Computer Supported Cooperative Work, 27-30. DOI: 10.1145/1718918.1718926
LA CAPTURE DE L'INCONSCIENT PAR LES ALGORITHMES
Statistiques clés
Chaque jour, un Américain moyen passe environ 7 heures et 4 minutes devant son écran.
Les gens du monde entier passent environ 6 heures et 58 minutes par jour devant leurs écrans.
Depuis 2013, il y a eu une augmentation de 50 minutes par jour du temps d'écran.
La génération Z (personnes nées entre 1996 et 2010) passe environ 9 heures par jour devant leurs écrans.
Il y a eu un pic du temps d'écran quotidien moyen de 7,7 heures pendant la pandémie de COVID-19.
Les trois sites les plus populaires consommés par les Millennials, la Génération X et les Baby Boomers sont Amazon, Facebook et Google.
En moyenne, les gens passent environ 44 % de leurs heures d'éveil à regarder un écran.
Les professionnels recommandent de passer moins de 2 heures par jour devant un écran.
49 % des bébés âgés de 0 à 2 ans ont déjà interagi avec des smartphones à un moment donné.
La capture de l'inconscient par l'intelligence artificielle est un processus multidimensionnel qui combine la collecte de données, la personnalisation, l'influence, et la formation de l'identité. L'IA, nous le savons maintenant (tout en le refoulant) capte une quantité massive de données comportementales à travers l'utilisation de dispositifs numériques, des réseaux sociaux, des moteurs de recherche, et des applications diverses. Ces données comprennent des clics, des recherches, des préférences, des interactions sociales, et même des données biométriques. En analysant ces données, les algorithmes d'IA peuvent inférer des schémas de comportement et des tendances psychologiques qui reflètent des aspects de l'inconscient.
Les systèmes d'IA utilisent des techniques d'apprentissage machine pour personnaliser les contenus et les expériences numériques en fonction des données collectées. Cette personnalisation peut aller au-delà des préférences conscientes de l'utilisateur pour toucher des désirs et des craintes plus profonds. Par exemple, les publicités ciblées et les recommandations de contenu exploitent souvent des besoins émotionnels inconscients pour capter et maintenir l'attention des utilisateurs. L'IA peut ainsi être utilisée pour influencer et manipuler les comportements de manière subtile mais puissante. Les algorithmes de recommandation, par exemple, ne se contentent pas de proposer des contenus en fonction des préférences explicites, mais cherchent aussi à maximiser l'engagement en jouant sur des biais cognitifs et émotionnels. Ces manipulations peuvent activer des pulsions inconscientes, telles que le besoin de validation sociale, la peur de manquer quelque chose (FOMO), ou des désirs de consommation.
L'utilisation constante de dispositifs intelligents et d'applications peut entraîner une réflexivité accrue où les individus commencent à se voir à travers le prisme des données et des algorithmes. Ce phénomène, parfois appelé "quantified self", peut influencer la manière dont les individus perçoivent et interprètent leurs propres pensées et comportements, intégrant ainsi des éléments de l'inconscient dans une boucle de rétroaction continue. Les utilisateurs peuvent adopter des comportements quasi-automatiques basés sur les données, parfois sans en être pleinement conscients. Par exemple, vérifier ses statistiques de sommeil chaque matin peut devenir une habitude inconsciente.
Les algorithmes qui analysent et présentent les données peuvent influencer les utilisateurs de manière subtile. Par exemple, les notifications et les rappels peuvent conditionner les comportements sans que l'utilisateur en soit pleinement conscient. Les données peuvent altérer la perception de soi. Une personne qui se voit constamment à travers les données peut commencer à se définir en fonction de statistiques (de santé ou de productivité), intégrant ainsi ces informations dans son identité personnelle.
L'IA et les technologies numériques jouent ainsi un rôle plus que significatif dans la formation de l'identité et de la subjectivité contemporaine. En interagissant avec des systèmes intelligents qui reflètent et amplifient certaines parties de leur inconscient, les individus peuvent voir leurs identités façonnées par ces interactions. Par exemple, les avatars virtuels, les filtres de réalité augmentée, et les profils sur les réseaux sociaux contribuent à une construction de soi qui intègre des éléments inconscients.
La capture de l'inconscient par l'IA soulève des questions éthiques et psychologiques importantes. Les enjeux de la vie privée, de la manipulation cognitive, et de la santé mentale sont au cœur de ce débat. Il est crucial de se demander comment protéger les individus des influences malveillantes et comment promouvoir une utilisation éthique et bienveillante des technologies intelligentes.
Comments