EN PT/BR
O Vale do Silício e a Língua Inglesa
Este artigo foi escrito inicialmente como uma palestra de dez minutos realizada na Universidade de São Paulo, em fevereiro de 2020, como parte do evento Afetando Tecnologias, Maquinando Inteligências. Foi revisado para publicação em Pittsburgh, PA, EUA em julho de 2020. Este artigo é um ensaio informal que reflete sobre a experiência da autora como tecnóloga baseada nos EUA.
“Construímos ferramentas centradas no ser humano que escalam”
Essa frase simples, que não estaria fora do lugar ouvida por acaso em uma empresa ou universidade de tecnologia dos EUA, indexa por completo uma visão de mundo do Vale do Silício. Se você entende por que alguém falaria assim, entenderá como eles pensam.
A cultura da computação nos EUA mudou rapidamente entre 2000-2020, e a crítica ainda está correndo para alcançá-la. Para mim, a cultura da computação dos EUA agora parece ser uma mistura mal digerida de antigas contraculturas, e das novas que buscam derrubá-las. Defino contracultura como um grupo de pessoas que compartilham valores que se opõem aos de uma cultura dominante (mainstream) e, portanto, se definem em oposição a ela, tanto criticando-a quanto construindo novas coisas para combatê-la, muitas vezes através de uma lente de correção de poder. Essas pessoas geralmente compartilham uma experiência vivida, e então destilam metáforas comuns para refleti-la em uma linguagem compartilhada.
“Construímos ferramentas centradas no ser humano que escalam”
Em apenas oito palavras, você pode ouvir os ecos das antigas contraculturas da computação e os tons da nova cultura dominante. Você quase pode ouvir novas contraculturas críticas da computação começando a dar as caras. Como a visão de mundo do Vale do Silício é extremamente influente e essas palavras simples têm uma longa história, quero fazer uma breve introdução do entendimento histórico dessas palavras.
Essa linguagem reflete uma certa visão de mundo que está profundamente ligada aos problemas que o Vale do Silício produz. Mas a mentalidade do Vale é tão comum que, se você foi criado nela, pode ser levado a pensar de determinada maneira. Portanto, acho muito valioso considerar as críticas a esta frase a partir de um corpo de pessoas que compartilham valores diferentes – acadêmicos, artistas e ativistas –, que pensaram muito sobre os problemas com tal frase, ou que usam a mesma linguagem, mas são advindos de uma experiência diferente. Para mim, suas críticas formam uma nova contracultura da computação nos EUA, que ainda é jovem e muito crítica porque acaba de reagir à ascensão de empresas de plataforma e informação (e seus respectivos entrincheiramentos de poder) nos últimos vinte anos. O que pode vir a seguir? Identifico uma forma de pensar que infunde um espírito construtivista e construtor de mundos na base da crítica recente – uma nova cultura da computação que chamo de “supercrítica”.
Vamos começar com uma incursão pela cultura de computação do Vale do Silício.
“Construímos ferramentas centradas no ser humano que escalam”
Primeiro, os tecnólogos do Vale do Silício realmente soam assim. As pessoas estão sempre falando sobre “construir” coisas: sistemas de software, novos hardwares, aplicativos, produtos, ferramentas. Por exemplo, um ensaio recente de um proeminente capitalista de risco argumenta que a solução bipartidária para quase todos os males sociais é “construir” (Andreesen, 2020). Mark Zuckerberg frequentemente descreve o Facebook como uma “ferramenta”, por exemplo em 2018 durante seu depoimento perante o Congresso (Weigel, 2018). Grandes empresas de design do Vale, como a IDEO, e instituições de design como a Stanford d.school, divulgam sua abordagem de design “centrado no ser humano” com destaque em suas páginas da web. Sam Altman, o chefe da Y Combinator (uma grande empresa de capital de risco no Vale do Silício), exorta os leitores a “escalarem” a si mesmos e seus negócios (Altman, 2019); Zuckerberg é conhecido por seu uso constante de palavras orientadas para a escala como “mais”, “crescer” e referências às ordens de magnitude de receita e de usuários com os quais o Facebook se engaja (milhões, bilhões, etc.) (Grosser, 2019). Tomada ao pé da letra, a frase “ferramentas centradas no ser humano que escalam” descreve uma parte do Vale do Silício que possui um alto valor, tanto no mercado de ações quanto na imaginação popular: sistemas de software voltados para o usuário, como Facebook, Twitter e macOS.
Nesse idioma, você pode ouvir os ecos da antiga contracultura da computação dos anos 1970, à medida que ganhou destaque e poder, por volta de 2010, e a voz de outra contracultura mais recente surgindo. Por exemplo, a conversa sobre “ferramentas” pode ser rastreada até os anos 1970, ao Whole Earth Catalog [Catálogo da Terra inteira], de Stewart Brand. A palavra, naquela época, foi usada por um círculo de hackers para sinalizar sua crença de que o computador pessoal (cuja base de usuários era, naquela época, limitada a um conjunto de hobbyists da superelite dos EUA) poderia ser um instrumento de capacitação pessoal, que esta “ferramenta” poderia trabalhar a mudança social por meio do jogo (Turner, 2008; Felstenstein, 2013). A fala sobre “humanos” também tem seu próprio sabor marginal. Por exemplo, CHI (Computer-Human Interaction conference – a Conferência de Interação Humano-computador) é a principal conferência para a pesquisa em IHC (Human-Computer Interaction – Interação Humano-computador). O próprio campo de IHC, com foco na construção de sistemas pessoais, interativos e aplicados, costumava ser uma franja radical em comparação com o campo de IA, que era mais focado em uso militar, teoria e automação (Grudin, 2009). Agora, a interação humano-computador é amplamente aceita como uma disciplina nos departamentos de ciência da computação (Grudin, 2009). Falar sobre o “humano” no contexto da computação era alinhar-se com os hippies e rebeldes dos anos 1970. Agora que os computadores pessoais e a Internet evoluíram de uma possibilidade luminosa para uma realidade dissonante, você verá diferentes usos de “humano” para sinalizar uma oposição ao surgimento de empresas de plataforma; por exemplo, a palavra “humanizado” como é usada no nome do Center for Humane Technology (Centro para Tecnologia Humanizada, fundado por um ex-eticista e designer do Google, que saiu insatisfeito em 2013), cujo slogan é “human downgrading” [rebaixamento humano] (Thompson, 2019). (Esse uso é complicado, claro, pelo fato de que as próprias empresas de plataforma invocam a figura do “humano” quando lhes convém, como, por exemplo, o interesse recente em “aprendizado de máquina com humanos no circuito”, conforme um vídeo da Amazon Web Services demonstra.)
Outro fenômeno a ser observado é o uso de metáforas técnicas e de negócios para entender e controlar um contexto social. “Escala” é uma dessas lentes no mundo. A pergunta que os engenheiros se perguntam o tempo todo, e são treinados para fazer desde o início de um curso de engenharia, é “como isso pode ser escalado?”. Isto acontece porque desenvolver código envolve trabalhar com coisas em escalas além do que uma pessoa pode perceber, como um computador que pode fazer algo um milhão de vezes por segundo, processando informações coletadas de milhões de pessoas. Portanto, “escala” é uma ideia que você pode encontrar em linhas reais de código. Quando o pessoal de tecnologia fala sobre “escala”, eles sempre querem dizer “aumentar”, não “diminuir”, e estão perguntando implicitamente: “O que acontece quando você adiciona mais zeros a esse número? Não importa se descreve uma quantidade em um contexto técnico (por exemplo, linhas em um banco de dados) ou em um social (por exemplo, número de usuários)”. “Escala” também tem o sabor da frase comercial “economias de escala” (Tsing, 2012): aumentar a escala é melhor porque significa mais lucro. Por fim, eu acho, mas não posso provar, que “escala” pode ter surgido de um maravilhamento utópico dos EUA nos anos 1970 sobre a possibilidade de uma rede global: “E se o computador pessoal pudesse ser dimensionado para cobrir o globo? O que seria possível se pudéssemos facilmente, sem colocar um esforço adicional, conectar bilhões de pessoas?”.
Em suma, se você ouvir alguém dizer uma frase como “construímos ferramentas centradas no ser humano que escalam”, você pode dar um palpite bem informado sobre sua socialização: essa pessoa fez parte de uma comunidade de tecnólogos dos EUA de cerca de 1970-2020, recebeu um ensino de engenharia nos EUA que enfatiza as proezas técnicas e valoriza o crescimento desenfreado.
Agora vamos falar sobre como essa linguagem pode ser desconstruída.
“Construímos ferramentas centradas no ser humano que escalam”
Como resumi anteriormente, acredito que essa linguagem reflete a captura da contracultura da computação dos EUA nos anos 1970 pelos monopólios privados de tecnologia norte-americanos nos últimos vinte anos. Minha impressão informal (como alguém que trabalha com tecnologia desde 2013) é que o crescimento desses monopólios reflete várias tendências técnicas lançadas por volta dos anos 2000: muitas pessoas comprando dispositivos de computação pessoal que podiam se conectar a uma Internet global, isso combinado com a realização – primeiro no Google em 2002 (Zuboff, 2020) – de que as empresas poderiam coletar grandes quantidades de dados do usuário, além do sucesso inesperado das técnicas de aprendizado de máquina em encontrar padrões nesses dados. (Vou apenas considerar o setor privado nesta discussão de tendências.)
Minha experiência é de que a crítica popular (isto é, a tecnocrítica que é barulhenta, continuada e presciente o suficiente para deixar seu contexto acadêmico especializado e entrar nos círculos mainstream de tecnologia, artes e política) acabou de alcançar os saltos técnicos de 2000-2020. Um tipo de tecnocrítica popular recente dos EUA parece advir de um conjunto mais diverso de estudiosas, incluindo Ruha Benjamin, Simone Browne, Shoshana Zuboff, Virginia Eubanks, Sasha Costanza-Chock, Cathy O’Neil e Safiya Umoja Noble, que estão reagindo ao surgimento de empresas de plataforma nos EUA, de coleta de dados e de implantação de sistemas de decisão algorítmica.
Vou resumir algumas destas críticas ao tipo de linguagem e cultura do Vale do Silício. Primeiro, vamos voltar à frase em si: “Construímos ferramentas centradas no ser humano que escalam”. Para situar essa frase, eu perguntaria: como essa linguagem nos parece quando olhada pelas lentes do poder, do capital, da história e da identidade? Qual é o ponto de referência do locutor? Qual é, concretamente, o sujeito do locutor? Como o orador está situado temporal e geograficamente? Quais são as suposições não ditas e compartilhadas que o falante está tomando como óbvias? Vamos palavra por palavra.
Os engenheiros tendem a se concentrar no construir por si mesmo, porque é para isso que foram treinados e é assim que eles veem (nós vemos) o mundo. Acredito que não seja amplamente ensinado nos programas de engenharia dos EUA como considerar as consequências sociais do que é construído, resultando em empresas como a Clearview AI – uma start-up de reconhecimento facial que enfrentou uma onda recente de reação popular e legal (Alba, 2020). A nova crítica, então, rebate por meio da proposta de desconstruir, por exemplo, por meio de proibições e recusa. Várias organizações sem fins lucrativos e acadêmicos pediram, por exemplo, o banimento total do reconhecimento facial usado pelas autoridades policiais, que um historiador chama de “plutônio da ciência da computação” (Stark, 2019) – esta proibição já aconteceu em várias cidades dos Estados Unidos (Jarmanning, 2020). Outros estudiosos apontam para uma “segunda onda de responsabilidade algorítmica” focada em banir ou restringir severamente os sistemas de IA existentes (Pasquale, 2019).
A conversa sobre “humanos” é mais fácil. Aplicando uma lente atenta ao capital vê-se que frases como “design centrado no ser humano” omitem as distinções entre as comunidades que são super-atendidas, as que são mal atendidas e as que estão servindo. Por exemplo, como Ruha Benjamin escreve, “no ‘design centrado no ser humano’, (…) conforme pensamos sobre a desigualdade codificada e o design discriminatório, é vital questionar quais humanos são priorizados no processo. Falando em termos práticos, o humano que paga a conta do designer é mais provavelmente o que será priorizado” (Benjamin, 2019). Pensar claramente sobre essa linguagem universalista significa revisá-la para refletir uma realidade concreta. Dada a realidade do gig work digital – que é geralmente formado por trabalhadores que são pessoas de cor fora dos EUA, como os 36% dos trabalhadores do Amazon Mechanical Turk que estão baseados na Índia em 2010 (Ross, 2010) –, que efeito tem no falante e no ouvinte substituir uma frase como “humano no circuito” por uma frase como “Deepa Patel no circuito”?
Além disso, os apelos à “humanidade” podem ser entendidos por analogia à linguagem política, que já é amplamente ridicularizada por seu esvaziamento (Orwell, 1946). Esses apelos não têm mais peso do que o antigo apelo retórico “pense nas crianças!”. Quem ousaria argumentar contra a “humanidade”, “o humano” e o “humanismo”? Esta linguagem de bem-estar do sistema “centrado no homem” usa os meios de conforto individual – esses sentimentos menores de satisfação afetiva, como o clique “oh, ah” de um caça-níqueis – para colocar papel de parede sobre os meios às vezes extrativos e coercitivos de um sistema técnico. Por exemplo, um princípio do design centrado no ser humano é “trazer prazer” ao usuário, e não incomodá-lo (Fessenden, 2017).
Quanto à conversa sobre “ferramenta”, se você aplicar uma lente feminista à linhagem desta palavra, particularmente à história do Whole Earth Catalog, que influenciou maciçamente a contracultura da computação dos EUA da década de 1970, e que foi absorvida pela “tecnologia do establishment” (Wiener, 2018), você poderia resumir da seguinte forma: “Meninos e seus brinquedos.” Tendo na capa uma visão da Terra vista do espaço, o catálogo adota a onipotente “visão de deus”, tão comum nas sociedades tecnológicas dominadas pelos homens (Haraway, 1988). Stewart Brand, o criador do catálogo, ressalta esse ponto na capa interna com a inscrição “somos como deuses e precisamos nos tornar bons nisso”. Lee Felsenstein (um dos membros do círculo íntimo de Brand e um dos primeiros desenvolvedores de computador pessoal) explicitamente enquadra as ferramentas como brinquedos, dizendo que “se o trabalho deve se tornar uma brincadeira, então as ferramentas devem se tornar brinquedos” (Felsenstein, 2013).
Se aceitarmos a metáfora da ferramenta, devemos também considerar diferentes entendimentos subjetivos da palavra “ferramenta” para chegar a um entendimento mais completo. As ferramentas carregam as histórias de seus construtores e usuários – estas histórias moldam o futuro. Como um exemplo simples, considere um martelo feito com um cabo extragrande, de forma que apenas pessoas com mãos grandes possam segurá-lo. Que grupos de pessoas serão melhores no manejo deste martelo? Que grupos de pessoas seriam piores? Simone Browne escreve sobre a história racializada de uma ferramenta tão simples como uma vela: as Leis da Lanterna do século 18, em Nova York, decretaram que negros, mestiços e indígenas escravizados deveriam iluminar-se à noite e que, se não o fizessem, seriam espancados (Browne, 2015). Esta ferramenta de autovigilância não requer computadores ou grandes dados, é apenas uma vela. Ruha Benjamin cita o filósofo da Martinica Frantz Fanon, que em 1952 reconheceu como uma ferramenta pode ser usada para a opressão: “Eu, humano de cor, só quero uma coisa: que jamais o instrumento domine o humano” (Benjamin, 2019). Audre Lorde, uma escritora e organizadora afro-americana, escreve que “as ferramentas do mestre nunca desmontarão a casa do mestre” (Lorde, 1996). Esses escritores usam a palavra “ferramenta” para refletir outro corpo de experiências vividas, de opressão e injustiça, que difere agudamente do desejo dos influentes primeiros hackers dos EUA de usar ferramentas para autoempoderamento lúdico.
O problema com “escala” (como é usada nesta frase) é que ela é, novamente, uma lente que estrutura a maneira como o falante vê o mundo. Aumentar a escala valoriza o crescimento desenfreado (muitas vezes por causa do lucro) em vez de valorizar a comunidade. Quais escalas? Famílias não escalam. (Quão bem seu piquenique em família se sairia com 10 mil vezes mais pais ou filhos?) Mas lanchonetes, call centers e cadeias podem escalar porque isolam os trabalhadores uns dos outros. Na verdade, o primeiro construto escalonável foi a plantação de cana-de-açúcar na Europa (Tsing, 2012). A própria ideia de escala, originada nas “economias de escala”, se constrói no rompimento de relações para a criação de unidades isoladas pela opressão de certos grupos, especialmente os negros. Relacionamentos diversos e transformadores não escalam.
“Construímos ferramentas centradas no ser humano que escalam”
Esta frase não se sai bem sob crítica. Em muitos contextos, o falante não tem intenção de causar dano, mas, na pior das hipóteses, essa frase nivela dinâmicas de poder, história e diferentes identidades em uma mesmice vazia. Ela flutua em um éter não localizado de informações, desprovido de tempo, lugar e relacionamentos. Fala de um conjunto muito restrito de experiências vividas. Na verdade, uma “ferramenta centrada no ser humano que escala” poderia facilmente descrever uma máquina caça-níqueis eletrônica ou uma tornozeleira de prisão, ambas metáforas aplicadas à tecnologia desenvolvida pelo Vale do Silício. Essas metáforas servem como um atalho para a realidade da vigilância abrangente e direcionada que essas tecnologias permitem (Crawford e Joler, 2018). As coisas estão ruins. E agora? A crítica, ao que parece, não responde.
Para que uma nova contracultura da computação surja, acho que ela precisa ser construída em cima da crítica. Visto que uma contracultura precisa falar de um ponto de vista diferente da cultura dominante, ela teria de desenvolver uma linguagem que se situa nas experiências vividas por diferentes comunidades e seus diferentes valores. Os seus membros podem criar uma nova linguagem ou usar a velha linguagem de novas maneiras, para ajudar os membros da contracultura a expressarem seus valores existentes de forma mais clara. Isso estabeleceria a base para os membros expressarem o que acreditam ser possível e importante no futuro. Essa linguagem, se ela atende à linguagem crítica “desconstrutivista” e adota uma abordagem “construtivista” ao criar novos enquadramentos e primitivos e futuros, eu a chamaria de “supercrítica”.
Como uma partícula lançada em uma pilha atômica de massa supercrítica, onde a crítica despedaça as ideias e depois cai em repouso (Latour, 2004), uma linguagem e cultura de “supercrítica” geraria mais ideias do que destruiria. Mas as relações transformadoras são tão importantes quanto o crescimento: como um sistema dinâmico que atinge um ponto crítico e, em seguida, exibe um comportamento emergente imprevisível, uma linguagem de “supercrítica” também enfatizaria “conexões críticas, não massa crítica” (brown, 2017). A ideia de “computação supercrítica” também dá continuidade a uma conversa sobre a “prática técnica crítica” que outros tecnólogos dos EUA começaram, particularmente Philip Agre, D. Fox Harrell e Phoebe Sengers (Agre, 1997). (O pensamento deles era muito anterior às mudanças de estrutura de 2010; por exemplo, na época de Agre, “a boa e velha IA” ainda era ciência da computação de ponta.)
Acho que uma direção promissora para a “computação supercrítica” é criar uma cultura que valorize relacionamentos diversos e transformadores. Por exemplo, seguindo o exemplo de adrienne maree brown, falar não sobre a construção de “ferramentas”, mas sobre a manutenção de “ecossistemas”. Isto enfatizaria a consciência de um delicado equilíbrio de relações em um sistema que precisa ser cuidado continuamente. Falar em “escala” impõe uma lente de crescimento e intercambialidade ao mundo; falar do que é “não escalável” enfatiza as relações sociais que a escala quebra, bem como as relações sociais entre partes escaláveis e partes não escaláveis. Anna Tsing cunhou a palavra “nonsoel” para expressar esta ideia: assim como um pixel em uma imagem digital permanece “uniforme, separado e autônomo”, então um nonsoel é um elemento da paisagem social removido das relações sociais formativas, um “elemento de paisagem não social” (Tsing, 2012). Que tipo de cultura de computação poderia surgir se, desde o início de uma educação em computação, os alunos fossem ensinados a reconhecer e discutir nonsoels em seus ambientes, para trabalhar em problemas envolvendo tanto a teoria da escalabilidade (por exemplo, análise assintótica padrão de algoritmos) e a teoria da não escalabilidade?
Acho que as contraculturas encontram seu sucesso ao centrar o que é impossível ou invisível na cultura dominante atual. Cinquenta anos atrás, alta difusão de computadores pessoais e uma rede global de informação pareciam totalmente impossíveis, uma possibilidade invisível até que alguns hackers dos EUA começaram a inventar a linguagem de “ferramentas” e “escala” para torná-la tangível. Precisamos tentar mudar o enquadramento novamente. Por exemplo, uma nova prática de computação pode não envolver a computação como a conhecemos. Os computadores que temos podem estar errados porque trabalham com informações de uma forma que recompensa a coleta constante de novas informações; a expertise em computação da cultura dominante do Vale do Silício pode ser prejudicada pela educação em engenharia padrão dos EUA e seus incentivos econômicos. O que estamos perdendo, como tecnólogos, porque nos limitamos ao material e às técnicas que herdamos? Finalmente, acho que nunca haverá apenas uma contracultura. Acho que existem (e deveria haver) muitas delas.
Que futuros podem surgir? Admiro o trabalho dos organizadores comunitários que já estão criando uma linguagem supercrítica por e para suas comunidades. Por exemplo, os Princípios da Detroit Digital Justice Coalition [Coalizão de Justiça Digital de Detroit] centralizam os valores de “acesso”, “participação”, “propriedade comum” e “comunidades saudáveis” (Detroit Digital Justice Coalition, 2019). Os membros dessa coalizão escreveram esses princípios pela escuta: entrevistando membros da comunidade que já estavam usando tecnologia para organização ou desenvolvimento econômico de base. Ler esses princípios me ajuda a imaginar um futuro em que tecnólogos e membros da comunidade trabalhem juntos para coprojetar tecnologias e políticas que atendam às necessidades reais da comunidade, criando uma infraestrutura governada pela comunidade que ela atende. Em cinquenta anos, espero que esse tipo de contracultura tenha se tornado popular.
REFERÊNCIAS
AGRE, P. E. (1997). Toward a Critical Technical Practice: Lessons Learned in Trying to Reform AI. Retrieved August 14, 2020, from https://pages.gseis.ucla.edu/faculty/agre/critical.html
ALBA, D. (2020, May 28). A.C.L.U. Accuses Clearview AI of Privacy ‘Nightmare Scenario.’ Retrieved August 14, 2020, from https://www.nytimes.com/2020/05/28/technology/clearview-ai-privacy-lawsuit.html
ALTMAN, S. (2019, January 24). How to Be Successful. Retrieved August 14, 2020, from https://blog.samaltman.com/how-to-be-successful
ANDREESSEN, M. (2020, July 30). It’s Time to Build. Retrieved August 14, 2020, from https://a16z.com/2020/04/18/its-time-to-build/
BENJAMIN, R. (2019). Race after technology: Abolitionist tools for the New Jim Code. Cambridge, UK, MA: Polity.
BROWN, A. M. (2017). Emergent strategy: Shaping change, changing worlds. Chico, CA: AK Press.
BROWNE, S. (2015). Dark matters: on the surveillance of Blackness. Durham, NC: Duke University Press.
CRAWFORD, K., & Joler, V. (2018, September 7). Anatomy of an AI System. Retrieved August 14, 2020, from https://anatomyof.ai/
Detroit Digital Justice Coalition. (2019, February 25). Principles to Guide Our Work. Retrieved August 14, 2020, from https://www.alliedmedia.org/ddjc/principles
FELSENTEIN, L. (2013, January). Introduction. Retrieved August 14, 2020, from http://www.leefelsenstein.com/
FESSENDEN, T. (2017, March 5). A Theory of User Delight: Why Usability Is the Foundation for Delightful Experiences. Retrieved August 14, 2020, from https://www.nngroup.com/articles/theory-user-delight/
GROSSER, B. (2019, May 2). Order of Magnitude. Retrieved August 14, 2020, from https://bengrosser.com/projects/order-of-magnitude/
GRUDIN, J. (2009). AI and HCI: Two Fields Divided by a Common Focus. AI Magazine, 30(4), 48. doi:10.1609/aimag.v30i4.2271
HARAWAY, D. (1988). Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective. Feminist Studies, 14(3), 575. doi:10.2307/3178066
JARMANNING, A. (2020, June 24). Boston Bans Use Of Facial Recognition Technology. It’s The 2nd-Largest City To Do So. Retrieved August 14, 2020, from https://www.wbur.org/news/2020/06/23/boston-facial-recognition-ban
LATOUR, B. (2004). Why Has Critique Run out of Steam? From Matters of Fact to Matters of Concern. Critical Inquiry, 30(2), 225. doi:10.2307/1344358
LORDE, A. (1996). Sister outsider: Essays and speeches. Trumansburg, NY: Crossing Press.
ORWELL, G. (1946, April). Politics and the English Language. Retrieved August 14, 2020, from https://www.orwell.ru/library/essays/politics/english/e_polit
PASQUALE, F. (2019, November 25). The Second Wave of Algorithmic Accountability. Retrieved August 14, 2020, from https://lpeproject.org/blog/the-second-wave-of-algorithmic-accountability/
Practical Human-in-the-Loop Machine Learning—Amazon Web Services. (2018, May 24). Retrieved August 14, 2020, from https://www.youtube.com/watch?v=rJw7u8qyDf4
ROSS, J., Irani, L., Silberman, M. S., Zaldivar, A., & Tomlinson, B. (2010). Who Are the Crowdworkers? Proceedings of the 28th of the International Conference Extended Abstracts on Human Factors in Computing Systems – CHI EA ‘10. doi:10.1145/1753846.1753873
STARK, L. (2019). Facial Recognition is the Plutonium of AI. XRDS: Crossroads, The ACM Magazine for Students, 25(3), 50-55. doi:10.1145/3313129
THOMPSON, N. (2019, April 23). Tristan Harris: Tech Is ‘Downgrading Humans.’ It’s Time to Fight Back. Retrieved August 14, 2020, from https://www.wired.com/story/tristan-harris-tech-is-downgrading-humans-time-to-fight-back/
TSING, A. L. (2012). On Nonscalability: The Living World Is Not Amenable to Precision-Nested Scales. Common Knowledge, 18(3), 505-524. doi:10.1215/0961754x-1630424
TURNER, F. (2008). From counterculture to cyberculture: Stewart Brand, the Whole Earth network, and the rise of digital utopianism. Chicago, IL: The University of Chicago Press.
WEIGEL, M. (2018, April 12). Silicon Valley’s Sixty-Year Love Affair with the Word “Tool”. Retrieved August 14, 2020, from https://www.newyorker.com/tech/annals-of-technology/silicon-valleys-sixty-year-love-affair-with-the-word-tool
What is Human-Centered Design? (n.d.). Retrieved August 14, 2020, from https://www.designkit.org/human-centered-design
WHEARLEY, N. (2017, February 18). History & Approach. Retrieved August 14, 2020, from https://dschool.stanford.edu/fellows-in-residence/project-fellowship-history-approach
WIENER, A. (2018, November 16). The Complicated Legacy of Stewart Brand’s “Whole Earth Catalog.” Retrieved August 14, 2020, from https://www.newyorker.com/news/letter-from-silicon-valley/the-complicated-legacy-of-stewart-brands-whole-earth-catalog
ZUBOFF, S. (2020). The age of surveillance capitalism: The fight for a human future at the new frontier of power. New York, NY: PublicAffairs.