IA Responsável, Plataformas de Mídia Social e Regulação no Brasil: Notas para Pensar a Participação Social em Tempos de Incertezas

Autores

DOI:

https://doi.org/10.11606/issn.2238-7714.no.2024.225630

Palavras-chave:

inteligência artificial responsável, comunicação, participação social, regulação

Resumo

Este artigo de contribuição conceitual, direcionado por uma pesquisa bibliográfica, tem como objetivo refletir e observar criticamente alguns impactos e transformações que a Inteligência Artificial (IA), sustentada por sistemas algorítmicos de aprendizagem de máquina, vem operando nas relações e processos socioculturais no contemporâneo brasileiro. Nessa direção, é intenção também explicar e delinear o conceito de IA responsável (IAR), ressaltando o papel-chave da participação social nos debates e processos de construções regulatórias, que estão abarcando o desenvolvimento, a aplicação e os usos sociais das neotecnologias de IA. Como resultado, se compartilha um quadro informativo (teórico e técnico) que sinaliza e discute, de modo crítico e interdisciplinar, alguns pontos de atenção e recomendações sobre as expressões da IA no Brasil que podem informar e apoiar intervenções e pesquisas futuras sobre as temáticas em foco.

Downloads

Os dados de download ainda não estão disponíveis.

Biografia do Autor

  • Francisco Leite, Universidade de São Paulo. Instituto de Estudos Avançados

    Doutor em Ciências da Comunicação pela Universidade de São Paulo (ECA-USP), com estágio de doutoramento PDSE/CAPES na Università di Bologna e na Università degli Studi di Trento, Itália; e pós-doutorado em Comunicação, Consumo e DEI pela USP/FAPESP. Professor no Instituto de Educação Continuada da Pontifícia Universidade Católica de Minas Gerais (PUC Minas). Vice-líder do grupo de pesquisa ArC2 – Estudos Antirracistas em Comunicação e Consumos, CNPq/USP. Pesquisador do grupo de estudos “Inteligência Artificial Responsável” (divisão IA, Comunicação e Artes) na Cátedra Oscar Sala, do Instituto de Estudos Avançados da USP.

  • Isabela Xavier Gonçalvez, Universidade de São Paulo. Instituto de Estudos Avançados

    Doutoranda em Direito e Tecnologia na Vrije Universiteit Brussel (VUB), mestre em Direito Internacional e Europeu pela Brussels School of Governance (BSoG). Pesquisadora associada do grupo de estudos “Inteligência Artificial Responsável” da Cátedra Oscar Sala, do Instituto de Estudos Avançados da Universidade de São Paulo (USP).

  • Telma Luiza de Azevedo, Universidade de São Paulo. Instituto de Estudos Avançados

    Membro do grupo de pesquisa FIGAS – Feminismos, Imagens, Gêneros e Artes e da Colaborativa Artística JUnTEs. Doutora em Artes e mestre em Ciências pela Universidade de São Paulo (USP). Formação em Psicologia pela Universidade Estadual de São Paulo (UNESP – Bauru). Pesquisadora associada do grupo de estudos “Inteligência Artificial Responsável”, Cátedra Oscar Sala, do Instituto de Estudos Avançados da USP.

  • Luciana Moherdaui, Universidade de São Paulo. Instituto de Estudos Avançados

    Jornalista. Integra o grupo de pesquisadores de Inteligência Artificial da Cátedra Oscar Sala, do Instituto de Estudos Avançados da Universidade de São Paulo (IEA-USP), tem pós-doutorado pela Faculdade de Arquitetura da USP (FAU-USP), com estudo sobre os impactos das projeções no espaço urbano. É autora de Guia de estilo web: produção e edição de notícias on-line, pioneiro no Brasil, e Jornalismo sem manchete: a implosão da página estática, ambos publicados pela editora Senac de São Paulo.

  • Everaldo Pereira, Universidade de São Paulo. Instituto de Estudos Avançados

    Doutor em Comunicação Social pela Universidade Metodista de São Paulo, com foco de pesquisa em Comunicação Institucional e de Marketing. É professor e coordenador do curso de Design no Instituto Mauá de Tecnologia. Integra os grupos de pesquisa “LabDesign” no Instituto Mauá, “Inteligência Artificial Responsável” da Cátedra Oscar Sala, no Instituto de Estudos Avançados da USP e “Design Researchers Network” na Universidade de Palermo. É associado à Intercom – Sociedade Brasileira de Estudos Interdisciplinares da Comunicação.

Referências

Academia Brasileira de Ciências. (2023). Recomendações para o avanço da inteligência artificial no Brasil: GT-IA da Academia Brasileira de Ciências. Academia Brasileira de Ciências.

Almeida, V. (2023). IA Generativa: oportunidades, riscos e governança. UFMG. https://bit.ly/3OdPfJk

Arun, C. (2020). AI and the Global South: designing for other worlds. In Dubber, M. D., Pasquale, F., & Das, S. (Eds.), The Oxford handbook of ethics of AI (pp. 588-606). Oxford Academic.

Baeza-Yates, R. (2023). Lecture held at the Academia Europaea Building Bridges Conference 2022: an introduction to responsible AI. European Review, 31(4), 406-421. https://doi.org/10.1017/S1062798723000145.

Barrett, P. M., Hendrix, J., & Richard-Carvajal, C. (2024). Digital risks to the 2024 elections: safeguarding democracy in an era of disinformation. Stern – Center for Business and Human Rights. https://bit.ly/3wRCIW5.

Bradford, A. (2020). The Brussels effect: how the European Union rules the world. Oxford University Press. https://doi.org/10.1093/oso/9780190088583.001.0001.

Brown, S. (2023, 21 de setembro.). Third-party AI tools pose increasing risks for organizations. MIT Management Sloan. https://bit.ly/42Awu8O.

Bruns, A. (2019). Are filter bubbles real? Polity Press Cambridgem.

Carville, O. (2023, 20 de abril). TikTok’s algorithm keeps pushing suicide to vulnerable kids. Bloomberg. https://www.bloomberg.com/news/features/2023-04-20/tiktok-effects-on-mental-health-in-focus-after-teen-suicide

Chhabria, P. (2024, 29 de jan.). The big election year: how to protect democracy in the era of AI. World Economic Forum.

https://www.weforum.org/agenda/2024/01/ai-democracy-election-year-2024-disinformation-misinformation/

Comissão Europeia. (2018, 7 de dezembro). Coordinated plan on artificial intelligence. European Commission. https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:52018DC0795#footnote60

Cordeiro, V. D. (2021). Novas questões para sociologia contemporânea: os impactos da Inteligência Artificial e dos algoritmos nas relações sociais. In F. G. Cozman, G. A. Plonski, H. Neri (Orgs.), Inteligência artificial: avanços e tendências (pp. 204-224). Instituto de Estudos Avançados.

Delacroix, S. (2019, 1 de fevereiro). Beware of ‘Algorithmic Regulation’. SSRN Electronic Journal. https://ssrn.com/abstract=3327191.

Dignum, V. (2017). Responsible Autonomy. In C. Sierra, Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence (IJCAI – 17) (pp. 4698-4704). AAAI Press.

Dignum, V. (2019). Responsible Artificial Intelligence: how to develop and use AI in a responsible way. Springer.

Dignum, V. (2020). Responsibility and Artificial Intelligence. In M. D. Dubber, F. Pasquale, S. Das (Eds.), The Oxford handbook of ethics of AI (pp. 214-231). Oxford Academic. https://doi.org/10.1093/oxfordhb/9780190067397.013.12.

Domingos, P. (2015). The master algorithm: how the quest for the ultimate learning machine will remake our world. Basic Books.

European Commission. (2019, 8 de abr.). Ethics guidelines for trustworthy AI. European Union. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

European Commission. (2024a, 13 de junho). Regulation (EU) 2024/1689 of the European Parliament and of the Council. European Union. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689.

European Commission. (2024b, 14 de outubro). High-level expert group on artificial intelligence. European Union. https://digital-strategy.ec.europa.eu/en/policies/expert-group-ai

Facebook. (2020, 11 de agosto). Our commitment to safety. Facebook Business. https://www.facebook.com/business/news/our-commitment-to-safety

Foucault, M. (1993). About the beginning of the hermeneutics of the self: two lectures at Dartmouth. Political Theory, 21(2), 198-227.

Foucault, M. (2020). Discipline and punish: the birth of the prison. Penguin Modern Classics.

Franklin, M., Ashton, H., Gorman, R., & Armstrong, S. (2022). Missing mechanisms of manipulation in the EU AI Act. The International.

FLAIRS Conference Proceedings, 35, 1-4. https://doi.org/10.32473/flairs.v35i.130723.

Garimella, K., & Chauchard, S. (2024). Kiran Garimella & Simon Chauchard, 2024. How prevalent is AI misinformation? What our studies in India show so far. Nature, 630(8015), 32-34. https://doi.org/10.1038/d41586-024-01588-2.

Ghezzi, D. R. Inteligência Artificial e cultura: uma mirada de longo prazo In Núcleo de Informação e Coordenação do Ponto BR (Ed.), Inteligência Artificial e cultura: perspectivas para a diversidade cultural na era digital (pp. 191-204). Comitê Gestor da Internet no Brasil. 2022.

Goggin, B. (2024, 22 de abril). Did TikTok videos inspire a teen’s suicide? His mom says she found graphic evidence. NBC news. https://www.nbcnews.com/tech/social-media/tiktok-suicide-videos-lawsuit-social-media-self-harm-rcna146680.

Gullino, D. (2024, 15 de julho). Justiça traça primeiros limites ao uso de inteligência artificial nas eleições municipais e pune deepfakes. O Globo. https://x.gd/eJpao.

Hagerty, A., & Rubinov, I. (2019). Global AI Ethics: a review of the social impacts and ethical implications of Artificial Intelligence. arXiv:1907.07892. https://arxiv.org/abs/1907.07892.

Heinrichs, B. Discrimation in the Age of artificial intelligence. AI & SOCIETY, 37, 143-154, 2022. https://doi.org/10.1007/s00146-021-01192-2.

Jannach, D., & Adomavicius, G. (2016). Recommendations with a Purpose. In RecSys ‘16: Proceedings of the 10th ACM Conference on Recommender Systems (pp. 7-10). Association for Computing Machinery.

Ministério da Cultura. (2024, 26 de janeiro). Conferência Temática da Cultura Digital – Permacultura Digital: “Começo, Meio e Começo” – 3º Dia. [Vídeo]. YouTube. https://www.youtube.com/watch?v=yI6drHFmT9w.

Leiser, M. (2016). The problem with ‘dots’: questioning the role of rationality in the online environment. International Review of Law, Computers & Technology, 30(3), 191-210.

Leite, F. (2022). Comunicação Antirracista: notas crítico-reflexivas e propositivas [Apresentação de trabalho]. 31° Encontro Anual da Compós, Imperatriz, Minas Gerais, Brasil.

MacInnis, D. J. (2011). A framework for conceptual contributions in marketing. Journal of Marketing, 75(4), 136-154. https://doi.org/10.1509/jmkg.75.4.136

Many AI researchers think fakes will become undetectable. (2024, 17 de janeiro). The Economist. https://www.economist.com/science-and-technology/2024/01/17/many-ai-researchers-think-fakes-will-become-undetectable.

Marres, N. (2017). Digital Sociology: the reinvention of Social Research. Polity Press.

McCabe, S. D., Ferrari, D., Green, J., Lazer, D. M. J., & Esterling, K. M. (2024). Post-January 6th deplatforming reduced the reach of misinformation on Twitter. Nature, 630, 132-140.

Mello, P. C. (2024a, 11 de fevereiro). Políticos do Brasil raramente postam fake news em suas redes, mostra estudo. Folha de S.Paulo. https://x.gd/2C3tA.

Mello, P. C. (2024b, 22 de junho). Inovações da Índia em campanha eleitoral suja na internet acendem alerta para outros países. Folha de S.Paulo. https://x.gd/qgmji.

Mertens, S., Herberz, M., Hahnel, U. J. J., & Brosch, T. (2021). The effectiveness of nudging: A meta-analysis of choice architecture interventions across behavioral domains. Proceedings of the National Academy of Sciences, 119(1). https://doi.org/10.1073/pnas.2107346118.

Moherdaui, L. (2024a, 11 de abril). Fake news: “o xadrez da política legislativa move peças”. Poder 360. https://www.poder360.com.br/opiniao/fake-news-o-xadrez-da-politica-legislativa-move-pecas/

Moherdaui, L. (2024b, 29 de fevereiro). Norma das eleições do TSE é falível diante do mar de fakes. Poder 360. https://www.poder360.com.br/opiniao/norma-das-eleicoes-do-tse-e-falivel-diante-do-mar-de-fakes/

Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. Penguin.

Pasquale, F. (2015). The black box society: the secret algorithms that control money and information. Harvard University Press.

Pataranutaporn, P., Liu, R., Finn, E., & Maes, P. (2023). Influencing human – AI interaction by priming beliefs about AI can increase perceived trustworthiness, empathy and effectiveness. Nature Machine Intelligence, 5, 1076-1086.

Penteado, C., Pellegrini, J., & Silveira, S. A. (Orgs). (2023). Plataformização, inteligência artificial e soberania de dados: tecnologia no Brasil 2020-2030. Ação Educativa.

Pontes, F. (2024, 3 de março). Entenda regras do TSE para uso de inteligência artificial nas eleições. Agência Brasil. https://bit.ly/3PnD0uf

Projeto de Lei n° 2338, de 2023. (2023). Dispõe sobre o uso da Inteligência Artificial. Senado Federal. https://legis.senado.leg.br/sdleg-getter/documento?dm=9347593&ts=1720798347613&disposition=inline.

Projeto de Lei n° 2630, de 2020. (2020). Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Senado Federal. https://bit.ly/3v9vlZH.

Resolução n° 23.732, de 27 de fevereiro de 2024. (2024, 27 de fevereiro). Altera a Res.-TSE nº 23.610, de 18 de dezembro de 2019, que dispõe sobre propaganda eleitoral, utilização e geração do horário gratuito e condutas ilícitas em campanha eleitoral. Tribunal Superior Eleitoral. https://x.gd/wurcJ.

Rodotä, S. (2007). Democracy, innovation, and the information society. In P. Goujon, S. Lavelle, P. Duquenoy, K. Kimppa & V. Laurent (Eds.), The information society: innovation, legitimacy, ethics and democracy (Vol. 233, pp. 17-26). Springer.

Rose, N. (1999). Powers of freedom: reframing political thought. Cambridge University Press.

Rose, N., & Miller, P. (2008). Governing the present: administering economic, social and personal life. Polity Press.

Russell, S., Perset, K., & Grobelnik, M. (2023, 29 de novembro). Updates to the OECD’s definition of an AI system explained. OECD.AI Policy Observatory. https://bit.ly/3Tgaa0c.

Santaella, L. (2021). Inteligência Artificial e cultura: oportunidades e desafios para o Sul Global. Unesco. https://bit.ly/3TlucGD.

Santaella, L. (2022). Inteligência Artificial e cultura: oportunidades e desafios para o Sul Global. In Núcleo de Informação e Coordenação do Ponto BR (Ed.), Inteligência Artificial e cultura: perspectivas para a diversidade cultural na era digital (pp. 69-95). Comitê Gestor da Internet no Brasil.

Milano, S., Taddeo, M., & Floridi, L. (2020). Recommender systems and their ethical challenges. AI & Soc, 35, 957-967. https://doi.org/10.1007/s00146-020-00950-y.

Soares, M. (2024, 24 de abril). Nova proposta para regulação de IA prevê fiscalização híbrida. Desinformante. https://desinformante.com.br/regulacao-ia-fiscalizacao/

Sodré, M. (2001). Objeto da comunicação é a vinculação social [Entrevista concedida a Desirée Rabelo]. PCLA, 3(1), 1-6. https://bit.ly/49itG2t

Sodré, M. (2002). Antropológica do espelho: uma teoria da comunicação linear e em rede. Vozes.

Sodré, M. (2014). A ciência do comum – Notas para o método comunicacional. Vozes.

Sodré, M. (2015). A comunicação eletrônica é epistemóloga [Entrevista concedida a Rafael Grohmann]. Parágrafo, 1(3), 120-128.

Sodré, M. (2019). Do lugar de fala ao corpo como lugar de diálogo: raça e etnicidades numa perspectiva comunicacional [Entrevista concedida a Roberto Abib]. Reciis – Revista Eletrônica de Comunicação Informação & Inovação em Saúde, 13(4). https://doi.org/10.29397/reciis.v13i4.1944.

Sodré, M. (2021). A sociedade incivil: mídia, iliberalismo e finanças. Vozes.

Sodré, M. (2023). A ruptura paradigmática da comunicação. MATRIZes, 17(3), 19-27.

Stokel-Walker, C. (2024, 18 de janeiro). How AI will manipulate elections in 2024. I News. https://inews.co.uk/news/ai-clear-danger-2024-elections-2859465.

Trump, D. J. [@realDonaldTrump]. (2020, 19 de dezembro). Peter Nvarro releases 36-page report alleging election fraud ‘more than sufficient’ to swing victory to Trump . . . . X. https://x.gd/iTzsM

Twitter, Inc. v. Taamneh. (2023). Harvard Law Review 402, 137(1), 400-409. https://harvardlawreview.org/print/vol-137/twitter-inc-v-taamneh/

Uuk, R. (2022). Manipulation and the AI act. Future of Life Institute. https://futureoflife.org/wp-content/uploads/2022/08/FLI-Manipulation_AI_Act.pdf

Winner, L. (1980). Do artifacts have politics? Daedalus, 109(1), 121-136. http://www.jstor.org/stable/20024652

Downloads

Publicado

2024-12-20

Edição

Seção

ARTIGOS

Como Citar

Leite, F., Gonçalvez, I. X., Azevedo, T. L. de, Moherdaui, L. ., & Pereira, E. (2024). IA Responsável, Plataformas de Mídia Social e Regulação no Brasil: Notas para Pensar a Participação Social em Tempos de Incertezas. Novos Olhares, 13(2), 51-70. https://doi.org/10.11606/issn.2238-7714.no.2024.225630