Crear arte con IA de forma responsable: una guía de campo para artistas

Contenido principal del artículo

Claire Leibowicz
Emily Saltz
Lia Coleman

Resumen

Las herramientas de aprendizaje automático utiliza­das para generar medios de comunicación sintéticos permiten la expresión creativa, pero también pueden generar contenidos que inducen a error y causan daño. La Guía de campo para el arte con IA responsable (Res­ponsible AI Art Field Guide) ofrece un punto de partida para que diseñadores, artistas y otros creadores pue­dan utilizar las técnicas de inteligencia artificial (IA) de forma responsable y cuidadosa. Sugerimos a los artis­tas y diseñadores que utilizan la IA que sitúen su tra­bajo en el contexto más amplio de la IA responsable, prestando atención a las consecuencias perjudiciales que potencial e involuntariamente podría conllevar su trabajo, tal como se entiende en los ámbitos de la seguridad de la información, la desinformación, el medio ambiente, los derechos de autor y los sesgos en los medios sintéticos apropiativos. En primer lu­gar, describimos las dinámicas más generales de los medios generativos para subrayar que los artistas y diseñadores que utilizan la IA operan al interior de un campo con características sociales complejas. A continuación, describimos nuestro proyecto, una guía centrada en cuatro puntos clave para controlar el ciclo de vida de la creación con IA: (1) el conjunto de datos, (2) el código del modelo, (3) los recursos de entrenamiento y (4) la publicación y la atribución. Por último, destaca­mos la importancia que tienen estas instancias de control para los artistas y diseñadores que utilizan la IA, ya que ofrecen puntos de partida o provocaciones para construir un campo de IA creativo y a la vez atento a las repercusiones sociales de sus trabajos.


Detalles del artículo

Cómo citar
Leibowicz, C., Saltz, E., & Coleman, L. (2021). Crear arte con IA de forma responsable: una guía de campo para artistas. Diseña, (19), Article.5. https://doi.org/10.7764/disena.19.Article.5
Sección
Proyectos
Biografía del autor/a

Claire Leibowicz, Partnership on AI

Licenciada en Psicología e Informática, Harvard University. Máster en Ciencias Sociales de Internet, University of Oxford (como becaria Clarendon). Es directora del programa de Inteligencia Artificial e Inte­gridad de los Medios de Partnership on AI, una organización global sin fines de lucro dedicada a la IA responsable. Bajo su dirección, el equipo de IA e Integridad de los Medios investiga el impacto de las tecnologías emergentes de IA en los medios digitales y la información en línea. Es becaria 2021 de periodismo en Tablet Magazine, donde explora asuntos que se sitúan en la intersección de la tecnología, la sociedad y la cultura digital, y candidata entrante al doctorado en el Oxford Internet Institute. Algunas de sus últimas publicaciones son “Encounters with Visual Misinformation and Labels Across Plat­forms: An Interview and Diary Study to Inform Ecosystem Approaches to Misinformation In­terventions” (con E. Saltz y C. Wardle; Extended Abstracts of the 2021 CHI Conference on Human Factors in Computing Systems, n° 340) y “The Deepfake Detection Dilemma: A Multistake­holder Exploration of Adversarial Dynamics in Synthetic Media” (con A. Ovadya y S. McGregor; Proceedings of the 2021 ACM Conference on Artificial Intelligence, Ethics, and Society).

Emily Saltz, The New York Times

Máster en Human-computer Interaction, Carnegie Mellon University. Investigadora de UX, estudia los medios de co­municación y la desinformación, trabajando con organizaciones como Partnership on AI y First Draft. Dirigió la UX para The News Provenance Project en The New York Times, donde trabaja como investigadora de UX. Entre sus trabajos se cuentan una colaboración con Oobah Butler en un artículo de opinión generada por IA sobre ser capturado por la IA (The Independent, 2021); exploraciones con softwares de predicción de texto como “Human-Human Autocompletion” (presentada en WordHack en Babycastles, 2020) y “Super Sad Googles” (presentada en Eyeo 2019); y “Filter Bubble Roulette”, una experiencia de realidad virtual móvil para habitar los feeds de redes sociales específicos de usuario (presentado en The Tech Interactive, San Jose, 2018).

Lia Coleman, Rhode Island School of Design

Licenciada en Informática, Massachusetts Institute of Technology. Artista, investigadora de IA y educadora, es profesora ad­junta en la Rhode Island School of Design, donde enseña a crear obras de arte con aprendizaje automático. Es autora de “Machines Have Eyes” (con A. Raina, M. Binnette, Y. Hu, D. Huang, Z. Davey y Q. Li; en Big Data. Big Design: Why Designers Should Care About Machine Learning; Princeton Architectural Press, 2021), “‘Artʼificial” (con E. Lee; Neocha Magazine, 2020), y “Flesh & Machine” (con E. Lee; Neocha Magazine, 2020). Entre sus talleres y charlas recientes destacan “How to Play Nice with Artificial Intelligence: Artist and AI Co-creation” (presentada en la Universidad de Arte y Diseño Burg Giebichens­tein, 2021); “A Field Guide to Making AI Art Responsibly” (presentada en Art Machines: In­ternational Symposium on ML and Art), y “How to Use AI for Your Art Responsibly” (presentada en Mozilla Festival, 2020 y Gray Area, 2020).

Citas

Bhatt, U., Andrus, M., Weller, A., & Xiang, A. (2020). Machine Learning Explainability for External Stakeholders. Association for Computing Machinery ArXiv, (arXiv:2007.05408). http://arxiv.org/abs/2007.05408

Bickert, M. (2020, January 6). Enforcing Against Manipulated Media. Facebook Blog. https://about.fb.com/news/2020/01/enforcing-against-manipulated-media/

Buolamwini, J. (2016). Project Overview Algorithmic Justice League. MIT Media Lab. https://www.media.mit.edu/projects/algorithmic-justice-league/overview/

Chesney, R., & Citron, D. K. (2018). Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security. California Law Review, 107(1753). https://doi.org/10.15779/Z38RV0D15J

Costanza-Chock, S. (2018). Design Justice: Towards an Intersectional Feminist Framework for Design Theory and Practice. Proceedings of the Design Research Society 2018. https://doi.org/10.21606/drs.2018.679

Crawford, K., & Paglen, T. (2019). Excavating AI: The Politics of Images in Machine Learning Training Sets. Excavating AI. https://excavating.ai

Diehm, C., & Sinders, C. (2020, May 14). “Technically” Responsible: The Essential, Precarious Workforce that Powers A.I. The New Design Congress Essays. https://newdesigncongress.org/en/pub/trk

Dolhansky, B., Bitton, J., Pflaum, B., Lu, J., Howes, R., Wang, M., & Ferrer, C. C. (2020). The DeepFake Detection Challenge (DFDC) Dataset. Association for Computing Machinery ArXiv, (arXiv:2006.07397). https://arxiv.org/abs/2006.07397v4

Epstein, Z., Levine, S., Rand, D. G., & Rahwan, I. (2020). Who Gets Credit for AI-Generated Art? IScience, 23(9), 101515. https://doi.org/10.1016/j.isci.2020.101515

Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., Daumé III, H., & Crawford, K. (2018). Datasheets for Datasets. Association for Computing Machinery ArXiv, (arXiv:1803.09010). https://arxiv.org/abs/1803.09010v1

Grosz, B. J., Grant, D. G., Vredenburgh, K., Behrends, J., Hu, L., Simmons, A., & Waldo, J. (2018). Embedded EthiCS: Integrating Ethics Broadly Across Computer Science Education. Association for Computing Machinery ArXiv, (arXiv:1808.05686). https://arxiv.org/abs/1808.05686

Hao, K. (2019, June 6). Training a Single AI Model Can Emit as Much Carbon as Five Cars in Their Lifetimes. MIT Technology Review. https://www.technologyreview.com/2019/06/06/239031/training-a-single-ai-model-can-emit-as-much-carbon-as-five-cars-in-their-lifetimes/

Hara, N. (2020). Pause Fest [AI-Generated Image]. http://www.n-hara.com

Lacoste, A., Luccioni, A., Schmidt, V., & Dandres, T. (2019). Quantifying the Carbon Emissions of Machine Learning. Association for Computing Machinery ArXiv, (arXiv:1910.09700). https://arxiv.org/abs/1910.09700

Leibowicz, C. R. (2020). The Deepfake Detection Challenge: Insights and Recommendations for AI and Media Integrity. Partnership on AI. https://www.partnershiponai.org/wp-content/uploads/2020/03/671004_Format-Report-for-PDF_031120-1.pdf

Leibowicz, C. R., Stray, J., & Saltz, E. (2020, July 13). Manipulated Media Detection Requires More Than Tools: Community Insights on What’s Needed. The Partnership on AI. https://www.partnershiponai.org/manipulated-media-detection-requires-more-than-tools-community-insights-on-whats-needed/

Li, Y., & Lyu, S. (2019). De-identification Without Losing Faces. Proceedings of the ACM Workshop on Information Hiding and Multimedia Security, 2019, 83–88. https://doi.org/10.1145/3335203.3335719

Lomas, N. (2020, August 17). Deepfake Video App Reface is just Getting Started on Shapeshifting Selfie Culture. TechCrunch. https://social.techcrunch.com/2020/08/17/deepfake-video-app-reface-is-just-getting-started-on-shapeshifting-selfie-culture/

Lyons, M. J. (2020). Excavating “Excavating AI”: The Elephant in the Gallery. Association for Computing Machinery ArXiv Preprint, (arXiv:2009.01215). https://doi.org/10.5281/zenodo.4037538

Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., Spitzer, E., Raji, I. D., & Gebru, T. (2019). Model Cards for Model Reporting. Proceedings of the Conference on Fairness, Accountability, and Transparency, 220–229. https://doi.org/10.1145/3287560.3287596

Mix. (2020, May 7). This AI Spits Out an Infinite Feed of Fake Furry Portraits. The Next Web. https://thenextweb.com/news/ai-generated-furry-portraits

Moisejevs, I. (2019, July 14). Will My Machine Learning System Be Attacked? Towards Data Science. https://towardsdatascience.com/will-my-machine-learning-be-attacked-6295707625d8

Nicolaou, E. (2020, August 27). Chrissy Teigen Swapped Her Face with John Legend’s and We Can’t Unsee It. Oprah Daily. https://www.oprahdaily.com/entertainment/a33821223/reface-app-how-to-use-deepfake/

Paris, B., & Donovan, J. (2019). Deepfakes and Cheap Fakes: The Manipulation of Audio and Visual Evidence. Data & Society. https://datasociety.net/library/deepfakes-and-cheap-fakes/

Patrini, G. (2019, October 7). Mapping the Deepfake Landscape. Sensity. https://sensity.ai/mapping-the-deepfake-landscape/

Posters. (2019, May 29). Gallery: “Spectre” Launches (Press Release). http://billposters.ch/spectre-launch/

Raji, I. D., & Yang, J. (2019). ABOUT ML: Annotation and Benchmarking on Understanding and Transparency of Machine Learning Lifecycles. Association for Computing Machinery ArXiv Preprint, (arXiv:1912.06166v1). http://arxiv.org/abs/1912.06166

Rakova, B., Yang, J., Cramer, H., & Chowdhury, R. (2020). Where Responsible AI meets Reality: Practitioner Perspectives on Enablers for shifting Organizational Practices. Proceedings of the ACM on Human-Computer Interaction, CSCW1. https://doi.org/10.1145/3449081

Roth, Y., & Achuthan, A. (2020, February 4). Building Rules in Public: Our Approach to Synthetic & Manipulated Media. Twitter Blog. https://blog.twitter.com/en_us/topics/company/2020/new-approach-to-synthetic-and-manipulated-media

Rothkopf, J. (2020, July 1). Deepfake Technology Enters the Documentary World. The New York Times. https://www.nytimes.com/2020/07/01/movies/deepfakes-documentary-welcome-to-chechnya.html

Salgado, E. (2020, August 5). Yaku with Circular Loops [AI-Generated Image]. https://www.youtube.com/watch?v=kSQW8Q2WV9c

Saltz, E., Coleman, L., & Leibowicz, C. R. (2020). Making AI Art Responsibly: A Field Guide [Zine]. Partnership on AI. https://www.partnershiponai.org/wp-content/uploads/2020/09/Partnership-on-AI-AI-Art-Field-Guide.pdf

Schultz, D. (2019). Faces2flowers—Artificial Images. https://artificial-images.com/project/faces-to-flowers-machine-learning-portraits/

Schultz, D. (2020). Artificial Images. https://artificial-images.com/

Simonite, T. (2018, November 28). How a Teenager’s Code Spawned a $432,500 Piece of Art. Wired. https://www.wired.com/story/teenagers-code-spawned-dollar-432500-piece-of-art/

Twitter Safety [@TwitterSafety]. (2020, October 30). Our policies are living documents. We’re willing to update and adjust them when we encounter new scenarios or receive important… [Tweet]. Twitter. https://twitter.com/TwitterSafety/status/1322298208236830720