Benjamin Sonntag-King
Luc, framage
Natouille 🍷 🥃 🍾
Benjamin Sonntag-King and 2 others boosted
Seconde capture de la "story" Instagram de Zelda Williams, dont voici la traduction française :

"Et pour l'amour de TOUT, arrêtez d'en parler comme de « l'avenir ». L'IA ne fait que recycler et régurgiter le passé pour qu'il soit consommé à nouveau. Vous ne faites que reprendre ce que vous donne ce "Human Centipede" du contenu, et vous vous trouvez au bout du bout de la chaîne, tandis que ceux qui sont au début rigolent bien, et consomment et brûlent tout."
Seconde capture de la "story" Instagram de Zelda Williams, dont voici la traduction française : "Et pour l'amour de TOUT, arrêtez d'en parler comme de « l'avenir ». L'IA ne fait que recycler et régurgiter le passé pour qu'il soit consommé à nouveau. Vous ne faites que reprendre ce que vous donne ce "Human Centipede" du contenu, et vous vous trouvez au bout du bout de la chaîne, tandis que ceux qui sont au début rigolent bien, et consomment et brûlent tout."
Capture d'écran d'une "story" de Zelda Williams (fille de Robin Williams) sur Instagram, dont voici la traduction française :

"S'il vous plaît, arrêtez de m'envoyer des vidéos IA de Papa. Arrêtez de croire que je veux les voir ou que je vais comprendre, ce n'est pas le cas et ça ne le sera jamais. Si vous essayez juste de me troller, j'ai vu bien pire, je vais vous bloquer et passer à autre chose. Mais s'il vous plaît, si vous avez un minimum de décence, arrêtez de lui faire ça, à lui, à moi, à tout le monde même, point final. C'est stupide, c'est une perte de temps et d'énergie, et croyez-moi, ce n'est PAS ce qu'il voudrait.

Voir l'héritage de personnes réelles réduit à « ça leur ressemble vaguement, donc ça suffit », juste pour que d'autres puissent produire d'horribles vidéos TikTok en les manipulant comme des marionnettes, c'est insupportable. Vous ne faites pas de l'art, vous fabriquez des hot-dogs industriels dégoûtants à partir de la vie d'êtres humains, de l'histoire de l'art et de la musique, puis vous nous en gavez de force en espérant qu'on vous donnera un petit pouce levé et un "J'aime".

Ca me dégoûte."
Capture d'écran d'une "story" de Zelda Williams (fille de Robin Williams) sur Instagram, dont voici la traduction française : "S'il vous plaît, arrêtez de m'envoyer des vidéos IA de Papa. Arrêtez de croire que je veux les voir ou que je vais comprendre, ce n'est pas le cas et ça ne le sera jamais. Si vous essayez juste de me troller, j'ai vu bien pire, je vais vous bloquer et passer à autre chose. Mais s'il vous plaît, si vous avez un minimum de décence, arrêtez de lui faire ça, à lui, à moi, à tout le monde même, point final. C'est stupide, c'est une perte de temps et d'énergie, et croyez-moi, ce n'est PAS ce qu'il voudrait. Voir l'héritage de personnes réelles réduit à « ça leur ressemble vaguement, donc ça suffit », juste pour que d'autres puissent produire d'horribles vidéos TikTok en les manipulant comme des marionnettes, c'est insupportable. Vous ne faites pas de l'art, vous fabriquez des hot-dogs industriels dégoûtants à partir de la vie d'êtres humains, de l'histoire de l'art et de la musique, puis vous nous en gavez de force en espérant qu'on vous donnera un petit pouce levé et un "J'aime". Ca me dégoûte."
Seconde capture de la "story" Instagram de Zelda Williams, dont voici la traduction française :

"Et pour l'amour de TOUT, arrêtez d'en parler comme de « l'avenir ». L'IA ne fait que recycler et régurgiter le passé pour qu'il soit consommé à nouveau. Vous ne faites que reprendre ce que vous donne ce "Human Centipede" du contenu, et vous vous trouvez au bout du bout de la chaîne, tandis que ceux qui sont au début rigolent bien, et consomment et brûlent tout."
Seconde capture de la "story" Instagram de Zelda Williams, dont voici la traduction française : "Et pour l'amour de TOUT, arrêtez d'en parler comme de « l'avenir ». L'IA ne fait que recycler et régurgiter le passé pour qu'il soit consommé à nouveau. Vous ne faites que reprendre ce que vous donne ce "Human Centipede" du contenu, et vous vous trouvez au bout du bout de la chaîne, tandis que ceux qui sont au début rigolent bien, et consomment et brûlent tout."
Capture d'écran d'une "story" de Zelda Williams (fille de Robin Williams) sur Instagram, dont voici la traduction française :

"S'il vous plaît, arrêtez de m'envoyer des vidéos IA de Papa. Arrêtez de croire que je veux les voir ou que je vais comprendre, ce n'est pas le cas et ça ne le sera jamais. Si vous essayez juste de me troller, j'ai vu bien pire, je vais vous bloquer et passer à autre chose. Mais s'il vous plaît, si vous avez un minimum de décence, arrêtez de lui faire ça, à lui, à moi, à tout le monde même, point final. C'est stupide, c'est une perte de temps et d'énergie, et croyez-moi, ce n'est PAS ce qu'il voudrait.

Voir l'héritage de personnes réelles réduit à « ça leur ressemble vaguement, donc ça suffit », juste pour que d'autres puissent produire d'horribles vidéos TikTok en les manipulant comme des marionnettes, c'est insupportable. Vous ne faites pas de l'art, vous fabriquez des hot-dogs industriels dégoûtants à partir de la vie d'êtres humains, de l'histoire de l'art et de la musique, puis vous nous en gavez de force en espérant qu'on vous donnera un petit pouce levé et un "J'aime".

Ca me dégoûte."
Capture d'écran d'une "story" de Zelda Williams (fille de Robin Williams) sur Instagram, dont voici la traduction française : "S'il vous plaît, arrêtez de m'envoyer des vidéos IA de Papa. Arrêtez de croire que je veux les voir ou que je vais comprendre, ce n'est pas le cas et ça ne le sera jamais. Si vous essayez juste de me troller, j'ai vu bien pire, je vais vous bloquer et passer à autre chose. Mais s'il vous plaît, si vous avez un minimum de décence, arrêtez de lui faire ça, à lui, à moi, à tout le monde même, point final. C'est stupide, c'est une perte de temps et d'énergie, et croyez-moi, ce n'est PAS ce qu'il voudrait. Voir l'héritage de personnes réelles réduit à « ça leur ressemble vaguement, donc ça suffit », juste pour que d'autres puissent produire d'horribles vidéos TikTok en les manipulant comme des marionnettes, c'est insupportable. Vous ne faites pas de l'art, vous fabriquez des hot-dogs industriels dégoûtants à partir de la vie d'êtres humains, de l'histoire de l'art et de la musique, puis vous nous en gavez de force en espérant qu'on vous donnera un petit pouce levé et un "J'aime". Ca me dégoûte."
‘Australiana’ images made by AI are racist and full of tired cliches, new study shows 

Big tech company hype sells generative artificial intelligence (AI) as intelligent, creative, desirable, inevitable, and about to radically reshape the future in many ways.

Published by Oxford University Press, our new research on how generative AI depicts Australian themes directly challenges this perception.

We found when generative AIs produce images of Australia and Australians, these outputs are riddled with bias. They reproduce sexist and racist caricatures more at home in the country’s imagined monocultural past.
‘Australiana’ images made by AI are racist and full of tired cliches, new study shows Big tech company hype sells generative artificial intelligence (AI) as intelligent, creative, desirable, inevitable, and about to radically reshape the future in many ways. Published by Oxford University Press, our new research on how generative AI depicts Australian themes directly challenges this perception. We found when generative AIs produce images of Australia and Australians, these outputs are riddled with bias. They reproduce sexist and racist caricatures more at home in the country’s imagined monocultural past.
Abstract

Generative AI (GenAI) has the potential to “imagine,” create, and render novel images in a seemingly endless combination of possibilities. However, the capacity of digital technologies to reduce cultural paradigms though the algorithmic monocultures they produce is well documented. As GenAI evokes powerful imaginaries, it is vital to ask what sorts of stories are included, and who is made more and less visible in them. To answer this, the authors tested a series of prompts across five of the largest commercially available GenAI engines—Adobe Firefly, Dream Studio, Dall-E3, Meta AI, and Midjourney. The prompts were “Australian-centric” in nature, designed to elicit the visual data of Australia through the lens of GenAI. Through an analysis of a corpus of approximately 700 images, the authors found that GenAI frequently invokes tired and cliched tropes to communicate “Australianness,” such as depictions of red dirt, Uluru, the “outback,” and a sense of wildness, in both its wildlife and in its depictions of “typical” Indigenous Australians. Various forms of bias were evident in the visualizations produced. The optics and interpretation of these images spans the puzzling to the troubling; this paper contends that “Australiana” as a category surfaces the limitations and blind spots of GenAI. Moreover, GenAI operates as something of a cultural time machine, surfacing old and defunct caricatures of Australianness despite the seeming novel newness of the “GenAI moment.”
Abstract Generative AI (GenAI) has the potential to “imagine,” create, and render novel images in a seemingly endless combination of possibilities. However, the capacity of digital technologies to reduce cultural paradigms though the algorithmic monocultures they produce is well documented. As GenAI evokes powerful imaginaries, it is vital to ask what sorts of stories are included, and who is made more and less visible in them. To answer this, the authors tested a series of prompts across five of the largest commercially available GenAI engines—Adobe Firefly, Dream Studio, Dall-E3, Meta AI, and Midjourney. The prompts were “Australian-centric” in nature, designed to elicit the visual data of Australia through the lens of GenAI. Through an analysis of a corpus of approximately 700 images, the authors found that GenAI frequently invokes tired and cliched tropes to communicate “Australianness,” such as depictions of red dirt, Uluru, the “outback,” and a sense of wildness, in both its wildlife and in its depictions of “typical” Indigenous Australians. Various forms of bias were evident in the visualizations produced. The optics and interpretation of these images spans the puzzling to the troubling; this paper contends that “Australiana” as a category surfaces the limitations and blind spots of GenAI. Moreover, GenAI operates as something of a cultural time machine, surfacing old and defunct caricatures of Australianness despite the seeming novel newness of the “GenAI moment.”
‘Australiana’ images made by AI are racist and full of tired cliches, new study shows 

Big tech company hype sells generative artificial intelligence (AI) as intelligent, creative, desirable, inevitable, and about to radically reshape the future in many ways.

Published by Oxford University Press, our new research on how generative AI depicts Australian themes directly challenges this perception.

We found when generative AIs produce images of Australia and Australians, these outputs are riddled with bias. They reproduce sexist and racist caricatures more at home in the country’s imagined monocultural past.
‘Australiana’ images made by AI are racist and full of tired cliches, new study shows Big tech company hype sells generative artificial intelligence (AI) as intelligent, creative, desirable, inevitable, and about to radically reshape the future in many ways. Published by Oxford University Press, our new research on how generative AI depicts Australian themes directly challenges this perception. We found when generative AIs produce images of Australia and Australians, these outputs are riddled with bias. They reproduce sexist and racist caricatures more at home in the country’s imagined monocultural past.
Abstract

Generative AI (GenAI) has the potential to “imagine,” create, and render novel images in a seemingly endless combination of possibilities. However, the capacity of digital technologies to reduce cultural paradigms though the algorithmic monocultures they produce is well documented. As GenAI evokes powerful imaginaries, it is vital to ask what sorts of stories are included, and who is made more and less visible in them. To answer this, the authors tested a series of prompts across five of the largest commercially available GenAI engines—Adobe Firefly, Dream Studio, Dall-E3, Meta AI, and Midjourney. The prompts were “Australian-centric” in nature, designed to elicit the visual data of Australia through the lens of GenAI. Through an analysis of a corpus of approximately 700 images, the authors found that GenAI frequently invokes tired and cliched tropes to communicate “Australianness,” such as depictions of red dirt, Uluru, the “outback,” and a sense of wildness, in both its wildlife and in its depictions of “typical” Indigenous Australians. Various forms of bias were evident in the visualizations produced. The optics and interpretation of these images spans the puzzling to the troubling; this paper contends that “Australiana” as a category surfaces the limitations and blind spots of GenAI. Moreover, GenAI operates as something of a cultural time machine, surfacing old and defunct caricatures of Australianness despite the seeming novel newness of the “GenAI moment.”
Abstract Generative AI (GenAI) has the potential to “imagine,” create, and render novel images in a seemingly endless combination of possibilities. However, the capacity of digital technologies to reduce cultural paradigms though the algorithmic monocultures they produce is well documented. As GenAI evokes powerful imaginaries, it is vital to ask what sorts of stories are included, and who is made more and less visible in them. To answer this, the authors tested a series of prompts across five of the largest commercially available GenAI engines—Adobe Firefly, Dream Studio, Dall-E3, Meta AI, and Midjourney. The prompts were “Australian-centric” in nature, designed to elicit the visual data of Australia through the lens of GenAI. Through an analysis of a corpus of approximately 700 images, the authors found that GenAI frequently invokes tired and cliched tropes to communicate “Australianness,” such as depictions of red dirt, Uluru, the “outback,” and a sense of wildness, in both its wildlife and in its depictions of “typical” Indigenous Australians. Various forms of bias were evident in the visualizations produced. The optics and interpretation of these images spans the puzzling to the troubling; this paper contends that “Australiana” as a category surfaces the limitations and blind spots of GenAI. Moreover, GenAI operates as something of a cultural time machine, surfacing old and defunct caricatures of Australianness despite the seeming novel newness of the “GenAI moment.”