Logo Tech Writers

Tech writers

Esse é o nosso blog para apaixonados por tecnologia! Aqui, softplayers e outros especialistas compartilham conhecimentos fundamentais para o desenvolvimento dessa comunidade.

SEJA UM TECH WRITER
O que é Programação Assíncrona e como utilizá-la?
Tech Writers Setembro 19, 2022

O que é Programação Assíncrona e como utilizá-la?

A Programação assíncrona é uma forma de evitar delays ou tempos de espera na execução de um programa. Quando estamos executando algo sincronicamente, podemos ter bloqueios no processo pela necessidade de esperar alguma execução de código. Isso pode  bloquear o programa como um todo até que termine a execução deste passo. Async e Await são as palavras chaves usadas no C# para usar a programação assíncrona. Nesse conteúdo vamos explicar o que é programação assíncrona e como utilizá-la.  Quando usar a programação assíncrona?  Podemos usar programação assíncrona sempre que tivermos um procedimento que possa ser independente, tais como: Leitura e escrita de um arquivo; Chamadas de recursos 3rd party; Lógicas independentes que podem ser separadas da execução da thread principal. Tipos de retornos Void: quando utilizamos este retorno em um método async, estamos assumindo que ele irá ser executado em uma thread paralelizada, mas não poderá ser awaitable. Ou seja, não poderemos usar o atributo await nele para esperar o seu resultado. Este conceito é chamado de "Fire and forget". Task: corresponde a um retorno do tipo void, mas que é awaitable. Ou seja, podemos usar o await para esperar a sua execução. Já em um método void, nãohaverá retorno de tipo algum. Task T: este retorno é também awaitable, mas nele teremos um generic que indica o tipo do retorno que estamos esperando, sendo T, qualquer tipo que desejarmos. Na prática O SO gerencia a thread do sistema sendo uma única thread que executa passo a passo de forma procedural, ou seja de maneira síncrona. Quando trabalhamos com formato assíncrono, podemos ter várias execuções de processos (threads) sem bloquearmos a thread principal ou as demais se assim desejarmos. Dessa forma, podemos trabalhar de forma paralelizada. Observe uma chamada síncrona: Chamada Assíncrona: Algumas vezes, necessitamos o resultado de uma chamada feita de modo assíncrono para o prosseguimento de nossa operação. Nesses casos, podemos usar o operador await. O operador Await se faz necessário quando precisamos de um resultado em meio a um processo para continuar, fazendo com que nosso procedimento aguarde o retorno do que estamos chamando. Isso tudo sem bloquear a thread principal, o que significa que a aplicação não fica travada. É importante lembrar que, para o desenvolvedor, o uso do async await pode parecer muito com o uso do formato síncrono.Porém, por baixo dos panos, não é bem assim que funciona. Abaixo, apresento exemplos de como usar o async await de forma síncrona e paralelizada. Apenas para ilustrar, temos os métodos de Get que buscam os dados na api pública da JsonPlaceHolder, que nos retorna coleções de objetos Json para simularmos uma massa de dados obtida ( https://jsonplaceholder.typicode.com ): Neste endpoint temos a execução síncrona dos métodos. Mesmo eles sendo Async, chamamos eles com o .Result() para que sejam executados de maneira síncrona. Neste segundo exemplo, já de forma assíncrona, executamos os métodos, porém aguardamos sua execução com o await. Em teoria, isso funcionaria de forma semelhante a execução síncrona, com a diferença de que para cada execução temos uma thread nova, mesmo que as outras aguardem o seu término: Neste terceiro endpoint temos uma otimização do conceito assíncrono. Comparando com o anterior, podemos ver que, no início do método, disparamos as chamadas dos métodos Get e atribuímos às variáveis. Neste cenário, threads diferentes são disparadas para cada chamada, e isso é possível porque ainda não precisamos dos seus valores. Mas quando vamos utilizar os seus valores para algo, necessitamos que eles estejam prontos. Aí sim utilizamos o await, para que se a thread de chamada do método Get ainda não tiver terminado a sua execução o sistema espere ela, ou elas… Dessa forma, concluímos que a utilização do async await vai além de apenas utilizá-lo no código, onde métodos que contém o async/await não necessariamente estão sendo executados de forma paralelizada. Para obtermos tal resultado, devemos pensar melhor na estrutura de sua utilização e como queremos que os processos se comportem. De um modo geral, processos async/await bem estruturados nos retornam ganho de tempo por podermos executarmos “n” processos de forma assíncrona. Gostou de saber um pouco mais sobre Programação Assíncrona e suas principais implicações? Confira mais conteúdos como esse em nosso blog! Quer ser nosso próximo Tech Writer? Confira nossas vagas na página Carreira! Até a próxima!

O que é o privacy by design e como ele é aplicado no desenvolvimento de produtos e serviços?
Tech Writers Setembro 05, 2022

O que é o privacy by design e como ele é aplicado no desenvolvimento de produtos e serviços?

O Privacy by Design, em tradução livre “privacidade desde a concepção”, está vinculado diretamente com a proteção e privacidade de indivíduos. Essa terminologia ganhou forças no Brasil com o surgimento da Lei Geral de Proteção de Dados – LGPD.   Basicamente, entende-se o conceito de Privacy by Design como a aplicação de medidas técnicas para garantir e resguardar a privacidade do usuário, desde o momento da concepção de um produto ou serviço que envolva a coleta de dados pessoais.  Pensando na importância do tema para aqueles que trabalham com Tecnologia da Informação (TI) neste artigo vamos abordar sobre a aplicação do conceito incorporado ao desenvolvimento de produtos e serviços, os pilares que o formam, e a sua relação com a Lei Geral de Proteção de Dados. Continue a leitura! O que é o Privacy By Design?  Para Bioni (2019, p.84), o Privacy by Design “é a ideia de que a proteção de dados pessoais deve orientar a concepção de um produto ou serviços, devendo eles ser embarcados com tecnologias que facilitem o controle e a proteção de dados pessoais.” Mas, engana-se quem pensa que o termo surgiu recentemente! Na década de 90, criou-se a metodologia do Privacy by Design, que ganhou maior visibilidade com a criação das regulamentações de proteção de dados.   A pioneira no tema, Ann Cavoukian, ex-comissária canadense de Informação e Privacidade, estabeleceu princípios para serem tratados como base na aplicação. Assim, o conceito demonstra duas questões importantes: a importância de implementação de configurações de privacidade por padrão;  a necessidade de aplicação de medidas proativas e garantia de transparência com o titular de dados sobre a finalidade da coleta dos dados pessoais.  “Qualquer que seja o sistema envolvido, o Privacy by Design requer que você o construa desde o início, com privacidade como configuração padrão.” - Ann Cavoukian. A integração de medidas de privacidade no início de um projeto está relacionada com a identificação de possíveis problemas em um estágio introdutório. Dessa forma, essa etapa consegue evitar consequências  negativas futuras. Os 7 pilares do Privacy By design Para entender sobre a aplicação do conceito do Privacy by Design, é preciso conhecer os 7 pilares que o formam. Vamos discutir um pouco sobre cada um deles a seguir. Proativo e não reativo O intuito é pensar antecipadamente em possíveis problemas, impedindo que aconteça, buscando soluções, garantindo que, quando implementado determinado produto ou serviço, já estejam tratados possíveis riscos.  Privacidade por padrão Esse princípio estabelece que a proteção dos dados pessoais automaticamente em qualquer processo em um determinado produto ou serviço. Isso garante que o usuário não precise preocupar-se em proteger sua própria privacidade, já que o produto ou processo foi criado pensando na segurança. Privacidade incorporada ao projeto A privacidade do usuário não deve, de nenhuma maneira, ser pensada com um elemento adicional, mas sim como parte do que está sendo desenvolvido e implementado.  Funcionalidade total Também chamado de “soma positiva ao invés de soma-zero”, estabelece que todas as funcionalidades devem estar completas e protegidas, gerando benefícios, tanto para o titular, quanto para a empresa.  Segurança de ponta a ponta É necessário pensar na privacidade dos dados em todas as fases. Assim, garante-se a proteção durante todo o ciclo de vida dos dados: no momento da coleta, durante o tratamento e armazenamento, até o descarte.  Visibilidade e transparência Este pode ser considerado como um dos pilares mais importantes, na qual deve ser garantido ao titular dos dados a transparência, de modo que sempre seja informado sobre a finalidade da utilização dos dados pessoais. Respeito à privacidade do usuário O produto ou serviço deve ser centrado diretamente no usuário, sendo que toda funcionalidade deve visar e garantir a segurança dos dados pessoais.  O que é o Privacy by Design na LGPD? A LGPD não menciona de forma direta em seu texto o termo Privacy by Design. Entretanto, essa legislação está diretamente relacionada com o previsto no artigo 46: “Art. 46. Os agentes de tratamento devem adotar medidas de segurança, técnicas e administrativas aptas a proteger os dados pessoais de acessos não autorizados e de situações acidentais ou ilícitas de destruição, perda, alteração, comunicação ou qualquer forma de tratamento inadequado ou ilícito. (…) § 2º As medidas de que trata o caput deste artigo deverão ser observadas desde a fase de concepção do produto ou do serviço até a sua execução.” Assim, podemos entender que o conceito Privacy by Design está relacionado com a aplicação de medidas de segurança para proteção dos dados pessoais. Dessa forma, desde o início da concepção de um produto e serviço, deve-se pensar na privacidade, garantindo, assim, a aderência com disposto no artigo.  Além disso, a adoção de medidas para garantir a privacidade de dados desde a concepção, pode ser vista como uma demonstração de que a empresa está em conformidade com a LGPD.  Esse cuidado evita a aplicação de multas e ocorrência de incidentes de segurança envolvendo dados pessoais.  Qual a diferença de Privacy by Design e Privacy by default? Podemos dizer que o Privacy by Default (privacidade como padrão) faz parte e liga-se diretamente ao Privacy by Design. Isso porque, uma das maneiras de garantir a privacidade desde o momento da criação, é que o produto ou serviço, quando direcionado ao usuário, esteja com todas as medidas para garantir a proteção dos dados implementadas. Sobre essa questão, Pinheiros (2018), pontua:  “Podemos dizer que o Privacy by Design é uma decorrência do Privacy by Default. Em outras palavras, trata-se da ideia de que o produto ou serviço seja lançado e recebido pelo usuário com todas as salvaguardas que foram concebidas durante o seu desenvolvimento. O princípio da proteção de dados por padrão é reconhecer o mínimo necessário em relação aos dados (às finalidades do tratamento pretendido), proibindo que esses dados excedam tais finalidades.” (PINHEIROS, 2018, p.399).  Ou seja, no momento do lançamento do produto ou serviço ao público, é necessário que as configurações de segurança e proteção dos dados estejam aplicadas como medida padrão. De tal modo que, somente haja a coleta dos dados estritamente necessários. Além disso, deve-se conceder ao usuário a autonomia para, se assim desejar, habilitar de forma voluntária as configurações e funcionalidades relacionadas à privacidade.  Conclusão Em suma, a famosa frase criada pelo matemático londrino Clive Humby “os dados são o nome petróleo”, torna-se cada vez mais real, haja vista que, as empresas utilizam os dados como fonte de receita, direta ou indiretamente.  Assim sendo, torna-se cada vez mais necessária a criação de regulamentações para proteção dos dados, dando ao titular autonomia sobre suas informações.   Com isso, cabe às empresas a implementação de medidas para a conformidade de seus produtos e serviços às novas regulamentações, garantindo o direito à privacidade aos titulares de dados. É interessante destacar também que a aplicação do Privacy by Design pode ser vista como um diferencial competitivo. Afinal, empresas que utilizam-se de medidas que garantem a privacidade dos usuários reforçam o compromisso e a preocupação com o bem-estar dos mesmos.  Dessa maneira, há um fortalecimento da confiança de todos os clientes por meio da transparência adotada. Logo, a implementação do conceito de Privacy by Design não só garante a conformidade com as legislações, mas também pode ser visto como um diferencial competitivo, fortalecendo a confiança dos usuários pela transparência adotada.  Gostou de saber um pouco mais sobre Privacy by Design e suas principais implicações? Confira mais conteúdos como esse em nosso blog! Quer ser nosso próximo Tech Writer? Confira nossas vagas na página Carreira! Até a próxima!

Product Discovery e sua importância no desenvolvimento de produtos
Tech Writers Agosto 15, 2022

Product Discovery e sua importância no desenvolvimento de produtos

Se você está entrando ou faz parte do universo dos produtos, em algum momento deve ter se deparado com o termo product discovery. O conceito tem sido difundido amplamente ao longo dos últimos anos, principalmente depois do “boom” da cultura de produto das empresas por todo o globo. Nesse mundo cada vez mais competitivo, alguns dos principais desafios das empresas são construir produtos que sejam lançados com sucesso e tenham vida longa, sendo amados pelos clientes.  No entanto, não são raras situações em que se investe tempo, dinheiro e muita energia construindo produtos que não despertam interesse nos consumidores. Assim, eles acabam não sendo utilizados e não  alcançando os resultados desejados. Para o desenvolvimento de produtos relevantes e que, de fato, cativem o público, o conhecimento sobre o processo de discovery é essencial. Por isso, neste artigo vou te explicar sobre product discovery: o que é, e como aplicá-lo no dia a dia de um produto digital.  Além disso, vou trazer dicas de como criar produtos melhores e mais assertivos em relação ao desejo de seus usuários. Vamos nessa?  Então, o que é Product Discovery? Product discovery ou descoberta de produto, se traduzirmos para o português, nada mais é do que um conjunto de práticas que estão relacionadas ao entendimento (descoberta) das necessidades do nosso usuário.  No processo de product  discovery, nos preocupamos em entender profundamente o problema antes de pensar em solução. Aplicar um discovery, significa realizar um planejamento e um estudo (feito pelo  time de produto e UX do negócio) sobre as dores do usuário. Esse trabalho pode ser feito sobre um produto que já exista ou algo novo.  Encontrar porquês, investigar, descobrir oportunidades, e, por fim, soluções que gerem valor e sejam viáveis para a empresa é o nosso grande desafio.  Como fazer um Discovery?  A primeira coisa a dizer sobre esse assunto é que não há uma receita de bolo para fazer um bom discovery. Cada time de produto aplica ferramentas dentro das atividades que fazem mais sentido naquele momento. Por outro lado, as equipes sempre devem seguir um planejamento, que vai ajudar nesse processo.  Podemos citar como etapas importantes: Alinhamento das expectativas (entender o momento da empresa, entender o produto que estamos querendo entregar);  Pesquisa (aliado com o time de UX), para entender as dores dos usuários (problemas); Ideação das hipóteses a serem validadas (essa é a hora de ter o máximo de hipóteses possível e alinhar com o time através de dinâmicas); Validação das hipóteses (é o momento de expor o protótipo ao usuário, o mais próximo possível da versão do produto);  Refinamento, que é criar um roadmap e estabelecer um MVP (minimum viable product) alinhado com as estratégias da empresa.  Quando fazer um Discovery? O discovery é essencial no lançamento de um novo produto, mas não se limita a isso. Quando temos uma nova funcionalidade, também podemos avaliar a necessidade de um discovery. Essas atividades podem acontecer em qualquer etapa do ciclo de vida de um produto.  Devemos avaliar as seguintes condições:  O valor que entregaremos é alto? Temos de forma clara o entendimento dos objetivos? Temos recursos disponíveis (disponibilidade de tempo e dinheiro)?  Depois de respondidas essas perguntas, conseguimos ter uma perspectiva das ações que devemos tomar.  Sempre devemos levar em consideração: quanto menos esforço (em implementação) para validar uma hipótese é melhor. Assim, podemos realizar diferentes testes para termos uma perspectiva mais clara do que nosso usuário precisa.  Não basta apenas sair criando novas features e esperar que, com isso, você terá bons resultados. Por isso, devemos ter um mindset de sempre testar nossas hipóteses,  para entendermos se elas fazem ou não sentido para nossos usuários. Quais são as áreas envolvidas no processo de discovery?  A responsabilidade pelas atividades é da gestão de produtos (PM) e UX. No entanto, isso não significa que não há colaboração da engenharia. A engenharia nos sinaliza a possibilidade técnica da solução que estamos propondo.  Dessa forma, a colaboração entre os times melhora muito os processos, fazendo com que todos contribuam para a compreensão da melhor solução (viável, desejável e possível) no produto que estamos trabalhando.  Existe Discovery certo ou errado?  Não podemos dizer que existe erro, e sim que pode ter faltado alguma percepção no projeto. A cada discovery, aprendemos e amadurecemos mais, o que gera maior assertividade no entendimento dos reais problemas dos usuários.  O importante é buscar uma percepção sem viez, entender que devemos coletar o máximo de informações dos nossos usuários antes de tomarmos qualquer decisão baseadas em “achismos”. O discovery nos permite evoluir nas ações que construímos ao longo da jornada de entrega do nosso produto.  Para finalizar, um ponto muito importante a esclarecer é o papel do gestor de produtos. Ele deve fortalecer a cultura de produto na sua empresa, alinhando sempre a estratégia da organização e o propósito do produto a todos os envolvidos (engenharia, comercial, marketing, entre outros). É o papel do gestor de produtos garantir uma visão muito clara do negócio e do valor que o produto gera ao nosso usuário.  Espero ter conseguido tirar algumas dúvidas de vocês sobre o tema! Para quem ficou interessado no assunto, indico algumas referências bibliográficas que podem ajudar a conhecer mais sobre o assunto:  CAGAN, Martin. Inspirado: Como criar produtos de tecnologia que os clientes amam; TORRES, Joaquim. Gestão de produtos de software: Como aumentar as chances de sucesso do seu software;  Você sabe qual é a importância do processo de discovery? – Cursos PM3.  Gostou de saber um pouco mais sobre product discovery e como se dá o seu funcionamento? Confira mais conteúdos como esse em nosso Blog! Quer ser nosso próximo Tech Writer? Confira nossas vagas na página Carreira!

Como promover a aprendizagem acelerada dentro de uma organização?
Tech Writers Agosto 01, 2022

Como promover a aprendizagem acelerada dentro de uma organização?

Vivemos um momento de transformações significativas na sociedade, sejam elas relacionadas à evolução humana ou causadas pela recente pandemia de Covid-19. O cenário de mudança exige esforço de adaptação e visão estratégica apurada. Nesse contexto, a capacidade de aprendizagem acelerada é muito útil, especialmente no mercado de trabalho.  Por outro lado, a aprendizagem acelerada tem tudo a ver com a flexibilidade cognitiva. Essa, por sua vez, liga-se à capacidade contínua de aprendizagem da pessoa, o que permite a adequação a diferentes cenários.  Em contextos relacionados à evolução tecnológica, requisita-se ainda mais a flexibilidade cognitiva. Isso porque, a velocidade de transformação de conceitos, técnicas de aprendizagem, ferramentas e procedimentos digitais é ainda maior do que em contextos antes analógicos. Sendo uma empresa de tecnologia, as mudanças do negócio e a evolução do conhecimento técnico são variáveis recorrentes na Softplan. Além disso, geram impacto em toda a estrutura, de processos a produtos fornecidos. A promoção da aprendizagem acelerada também liga-se à visão da liderança. Ela demanda que gestores compreendam a importância do aprendizado contínuo para a sustentabilidade do seu negócio. No conteúdo de hoje vamos contar uma das nossas experiências neste processo de aceleração da aprendizagem. Fique com a gente!  Quais os desafios da aprendizagem acelerada? O desenvolvimento do SAJ (Sistema de Automação da Justiça), exige, não apenas conhecimento em tecnologia, mas também em relação aos processos das instituições clientes e legislações vigentes. Por isso, é necessário para o seu desenvolvimento, a criação, manutenção e disseminação de conhecimentos muito especializados. Além das particularidades do negócio da Softplan, temos ainda o avanço da tecnologia em diferentes segmentos da economia, impactando diretamente na demanda por mão de obra qualificada em TECH. Por isso, iniciamos em 2019 o projeto “Academia de Base”, um dos exemplos de ação com foco na aprendizagem acelerada em um contexto corporativo.  Criamos um modelo de programa de estágio, em que a própria capacitação se revelou também um processo seletivo natural, levando para a efetivação somente os profissionais de fato aptos ao atendimento aos clientes e já adaptados à cultura da unidade.  Já realizamos 4 edições, com mais de 900 inscritos e mais de 60 pessoas capacitadas neste modelo! Como realizamos o projeto “Academia de Base”?  O projeto “Academia de Base” foi desenhado para resolver os desafios relacionados à disseminação de conhecimento especializado no time de Suporte da Unidade de Justiça, focando na inteligência necessária ao atendimento aos clientes da Softplan. As principais características foram:  Programação de fases de capacitação Na programação das fases de capacitação organizamos como se dariam os repasses de conhecimentos sobre: Tecnologia (produto SAJ e configurações);  Regra de negócio (processos do judiciário); Processos e ferramentas de trabalho; Essa etapa foi feita em ondas incrementais de aprendizagem e com realização de atividades práticas (“hands on” na etapa de acompanhamento em campo). Conteúdos adaptáveis  Conteúdo com possibilidades de adaptação para atender às demandas específicas de conhecimento dos times da operação de atendimento. Nesse sentido, permitindo uma certa flexibilidade na modelagem de cada turma. Processo seletivo com base em perfil comportamental  O processo seletivo para participação no projeto foi realizado baseado em perfil comportamental. Ou seja, nossos critérios foram além da seleção por curso de graduação correlacionado ao negócio da Justiça. Instrutores Capacitados e materiais de apoio relacionados Para realizar o projeto, buscamos alocar colaboradores com conhecimento especializado avançado e com ampla experiência no atendimento aos clientes como instrutores. Além disso, realizamos a disponibilização de materiais, bases de dados, bases de conhecimento, documentações de produto e práticas totalmente correlacionados à realidade do trabalho do suporte. Proximidade com a rotina de trabalho Elaboramos um período de “sombra” para os participantes do projeto. Ou seja, nesse momento, os estagiários realizaram o acompanhamento da rotina real de trabalho, definindo mentores para orientação no dia a dia. Acompanhamento contínuo  Promovemos o acompanhamento constante da evolução do aprendizado dos estagiários, incluindo avaliações teóricas, práticas, banca técnica, feedbacks constantes e pesquisa junto aos mentores. Além disso, mapeamos a evolução do conhecimento técnico através de auto avaliação e levantamento de dados de produtividade de cada estagiário no período pós-efetivação. Criação da Marca do projeto Criamos uma marca para o projeto, promovendo o senso de pertencimento dos estagiários a uma iniciativa inovadora de desenvolvimento de carreira, e de alta qualidade como ação educadora. O que aprendemos com o projeto? A aplicação desse projeto resultou em muitas lições. Percebemos que, apesar de não haver uma única fórmula de aprendizagem acelerada, algumas estratégias e ações podem potencializar esse processo.  As principais inferências sobre a relação entre os resultados gerados pela “Academia de Base” e a aplicação de práticas de Gestão do Conhecimento, referenciadas neste estudo, são: Criação de um modelo de replicação do conhecimento especializado para novos colaboradores totalmente escalável quanto à estratégia de seleção, planejamento, execução e monitoramento. Isso confirma a importância de um programa de capacitação incremental e conectado com os conhecimentos requisitados pela operação do negócio; Aplicação do modelo de aprendizagem centrado na prática (experimentação dos processos e dos sistemas). Isso  otimiza o aprendizado para adultos (reforçando a assertividade da escolha de metodologias fundamentadas na andragogia); Valor estratégico da atuação do time da Gestão do Conhecimento para desenho da metodologia, planejamento, logística e execução do programa, implementando práticas da governança multinível recomendada no modelo de Universidade Corporativa em Rede; Aceleração da aprendizagem em função da disponibilização de especialistas de diferentes áreas da vertical de Justiça como instrutores para realização dos tópicos de treinamento previstos no programa, reforçando a importância da aprendizagem organizacional centrada na prática do trabalho cotidiano; Impacto financeiro positivo, justificando o investimento financeiro para contratação de estagiários em modelo de capacitação para melhor assertividade na contratação em modelo CLT, demonstrando que as boas práticas de Gestão do Conhecimento podem ser traduzidas em retorno quantitativo para a organização (custos gerais reduzidos e indicadores de produtividade aumentados). Nossa experiência reforçando os processos de Gestão do Conhecimento evidenciam os impactos positivos gerados por uma estratégia sólida de investimento em ações focadas no capital intelectual. Em síntese: para a obtenção de melhores resultados, investir em pessoas é crucial ! Quer saber mais sobre o assunto? Recomendo:  https://justicadigital.com/unisoft-gestao-do-conhecimento/  https://www.linkedin.com/pulse/acelera%C3%A7%C3%A3o-da-aprendizagem-na-unidade-de-justi%C3%A7a-softplan-prado/?trk=public_profile_article_view Gostou de saber um pouco mais sobre aprendizagem acelerada e como buscamos aplicá-la na Softplan?  Confira mais conteúdos como esse em nosso Blog! Quer ser nosso próximo Tech Writer? Confira nossas vagas na página Carreira!

Microsserviços do “tamanho certo” – Parte I
Tech Writers Julho 18, 2022

Microsserviços do “tamanho certo” – Parte I

Uma pergunta difícil de ser respondida quando trabalhamos com microsserviços é com relação ao “tamanho” adequado das aplicações que constituem o ecossistema.   A princípio, apenas para citarmos alguns exemplos e evidenciar a importância do assunto, serviços de granularidade inadequada podem implicar em:   Aumento do custo de manutenção e do índice de retrabalho das equipes;  Prejuízo nos requisitos não funcionais como escalabilidade, elasticidade e disponibilidade;  Agravamento do impacto de arquitetura descentralizada em termos de performance;  Complexidade acidental no monitoramento e detecção de falhas da aplicação.  Determinar a granularidade adequada é uma tarefa difícil. Provavelmente, não será na primeira tentativa que você obterá sucesso.  Nesse artigo, trarei alguns insights de possíveis cenários que justificam a decomposição de uma aplicação em microsserviços menores para te ajudar nessa questão. Confira! Granular ou modular microsserviços? Para compreendermos melhor as justificativas que irão nos conduzir durante o processo de refinamento da aplicação, devemos esclarecer a diferença conceitual entre os termos “granularidade” e “modularidade”.  Embora intimamente relacionados, tratam de aspectos arquiteturais distintos.   Modularidade, em nosso contexto de discussão, trata da organização interna de uma aplicação em componentes separados de alta coesão e com baixo acoplamento.  Idealmente, toda aplicação (principalmente monolíticas) deve ter essa preocupação, sendo desenvolvida em um formato modular flexível que facilite uma eventual decomposição.  A ausência de modularidade conduzirá o projeto ao perigoso e quase certamente irreversível big ball of mud (ou ainda pior: big ball of distributed mud). Figura 1- Exemplo de módulos coesos com dependência  Granularidade, por outro lado, diz respeito ao tamanho dos nossos módulos e/ou serviços. Em uma arquitetura distribuída é muito mais comum termos problemas com granularidade do que com a modularidade.   O ponto central dessa discussão é que uma arquitetura modular facilita muito a quebra de um serviço centralizado em microsserviços mais refinados, sendo quase um pré-requisito para uma decomposição arquitetural de menor esforço e com risco controlado.  A velha advertência de refatorar um trecho de código problemático antes de alterar seu comportamento também pode, nas devidas proporções, nos servir de orientação. Assim, é uma escolha sábia reestruturar um serviço em um formato modular flexível antes de aplicar as diretrizes que abordaremos na sequência.  Dica: Ferramentas simples como NetArchTest (.NET) e ArchUnit (Java) podem ser utilizadas pelo arquiteto para garantir a modularidade de uma aplicação, seguindo o conceito de fitness functions e arquiteturas evolucionárias! Critérios de desintegração dos microsserviços Afinal de contas, quais seriam os critérios que justificariam quebrar um serviço em aplicações menores?   São eles:  Escopo e funcionalidade;  Código de alta volatilidade;  Escalabilidade e throughput;  Tolerância à falha;  Segurança;  Extensibilidade.  A seguir, explicaremos melhor cada um desses tópicos: Escopo e funcionalidade Essa é a justificativa mais comum na quebra de granularidade de um serviço. Um microsserviço objetiva ter alta coesão. Desse modo, deve fazer uma única coisa e fazê-la muito bem.  A natureza subjetiva desse critério pode induzir a decisões equivocadas de arquitetura.  Como “responsabilidade única” acaba dependendo da avaliação e interpretação individual de cada um, é muito difícil afirmar com precisão quando essa recomendação é válida.  Observe a imagem: Figura 2 – Decomposição de serviço com boa coesão  No exemplo acima, as funcionalidades estão intimamente relacionadas dentro de um mesmo contexto de negócio (notificação). Avaliando apenas do ponto de vista da coesão, é provável que não tenhamos uma boa justificativa para uma decomposição arquitetural. Figura 3 – Serviço tratando de funcionalidades sem relação  Agora, considere um único serviço que gerencia o perfil do usuário e é responsável por manipular uma sessão de comentários. Claramente, estamos falando de contextos de negócio distintos e seria mais fácil de aceitar uma decisão apoiada nessa justificativa.  Para reforçar: este critério, por si só, muitas vezes não justifica a quebra de um serviço. Geralmente, ele é aplicado em conjunto com outros critérios, reforçando a tomada de decisão.   2 – Código de alta volatilidade A velocidade que o código fonte muda é uma ótima diretriz para fundamentar a decomposição de uma aplicação.  Imagine um serviço de títulos financeiros, no qual o módulo de histórico tem novas implementações a cada semana, enquanto os módulos de títulos a pagar e receber são alterados a cada seis meses. Figura 4 – Separando código de alta volatilidade  Nessa situação, a decomposição arquitetural pode ser uma decisão sábia para reduzir o escopo de testes antes de cada liberação.  Além disso, essa decisão também trará ganho de agilidade e manterá nosso risco de deploy controlado, garantindo que o serviço de títulos não seja mais afetado pelas frequentes mudanças na lógica do serviço de histórico.  3 – Escalabilidade e throughput Muito semelhante ao item anterior, o throughput de um serviço pode ser uma ótima justificativa para a quebra da aplicação.  Diferentes níveis de demanda, em diferentes funcionalidades, podem exigir que o serviço tenha que escalar de formas distintas e independentes.  Manter a aplicação centralizada pode impactar diretamente a capacidade e os custos da arquitetura em termos de escalabilidade e elasticidade.  Dependendo do contexto de negócio, este critério, por si só, pode ser suficiente para justificar sua decisão.  Figura 5 – Serviço com diferentes níveis de requisição em tpm (transactions per minute)  4 – Tolerância à falha O termo tolerância à falha descreve a capacidade de uma aplicação de continuar operando mesmo quando uma determinada parte desta aplicação deixa de funcionar.  Vamos considerar o exemplo anterior. Imagine um cenário onde o serviço de histórico, por integrar com diversas aplicações de terceiros fora da nossa arquitetura, costuma falhar com certa frequência, chegando ao ponto de reiniciar todo o serviço de títulos financeiros e gerar indisponibilidade.  Nesse caso, uma decisão compreensível seria: separar a rotina problemática em um serviço isolado. Para, assim, manter nossa aplicação funcional a despeito de eventuais falhas catastróficas no serviço de históricos. Figura 6 – Separando uma rotina problemática para melhorar a tolerância à falha 5 – Segurança Considere o exemplo ilustrado na figura abaixo. Nele, um serviço que trata das informações básicas de um usuário (endereço, telefone, nome etc.) precisa gerenciar dados sensíveis dos seus cartões de crédito.  Essas informações podem ter requisitos distintos com relação ao acesso e a proteção dos mesmos.  Quebrar o serviço, neste caso, pode auxiliar em:  Restringir ainda mais o acesso ao código cujos critérios de segurança sejam mais rigorosos; Evitar que o código menos restrito seja impactado com complexidade acidental de outros módulos.  Figura 7 – Serviços com critérios de acesso e segurança distintos  6 – Extensibilidade Uma solução extensível tem a capacidade de ter novas funcionalidades adicionadas com facilidade conforme o contexto de negócio cresce. Essa habilidade também pode ser um forte motivador para segregar uma aplicação.   Imagine que uma empresa tem um serviço centralizado para gerenciar formas de pagamento e deseja suportar novos métodos.  Certamente, seria possível consolidar tudo isso em um único serviço. Porém, a cada nova inclusão, o escopo de testes se tornaria mais e mais complexo, aumentando o risco de liberação, e, com isso, o custo de novas modificações.  Dessa forma, uma forma de mitigar esse problema, seria separar cada forma de pagamento em um serviço exclusivo. Assim, seria permitido que novos serviços pudessem subir e estender a funcionalidade atual sem impactar o código em produção ou aumentar o escopo de testes, mantendo, assim, o risco de novas implementações sob controle. Figura 8 – Segregação de serviços para permitir extensibilidade  Conclusão Dificilmente um arquiteto irá acertar de primeira. Requisitos mudam. Conforme aprendemos com nossas ferramentas de telemetria e feedback, a decomposição arquitetural de uma aplicação acaba sendo um processo natural dentro de uma aplicação moderna e evolutiva.  Felizmente, temos exemplos baseados na experimentação prática que nos servem de balizadores nessa empreitada:  Garanta que seu serviço possui uma estrutura interna modular flexível;  Avalie com calma os critérios que justifiquem uma decomposição arquitetural;  Considere cada trade-off face às necessidades do seu contexto de negócio.  Por fim, aos leitores que desejam saber mais sobre o tema, recomendo a leitura do livro que fundamentou este artigo: Software Architecture: The Hard Parts. Uma abordagem profunda e prática sobre este e muitos outros desafios enfrentados na arquitetura de software moderna de sistemas complexos.  Posteriormente, na parte II deste artigo, discutiremos os critérios que podem levar um arquiteto a unificar serviços distintos em uma aplicação centralizada. Fique ligado! Gostou de conhecer um pouco mais sobre Microsserviços? Me conte aqui nos comentários!  Confira mais conteúdos como esse em nosso Blog! Quer ser nosso próximo Tech Writer? Confira nossas vagas na página Carreira!

Singleton: guia completo para entender essa polêmica de uma vez por todas!
Tech Writers Julho 04, 2022

Singleton: guia completo para entender essa polêmica de uma vez por todas!

O Singleton corresponde a um padrão de projeto de software. Padrões de projeto, conforme tratei no meu artigo sobre o Strategy, nada mais são do que um catálogo de soluções a problemas comuns.  Cada padrão de projetos carrega prós e contras; benefícios e custos de implementação. No caso específico do Singleton, os críticos consideram estes “custos” grandes demais. Neste artigo, vou te explicar o que é singleton, quais os “problemas” que ele pode trazer para o código, e quais as alternativas do seu uso. Continue a leitura!  O que é um Singleton? Para entendermos as dificuldades que o padrão de projeto Singleton traz, primeiro precisamos definir o que é um “Singleton”. Afinal de contas, muitas vezes, é a própria confusão sobre o conceito que torna algumas pessoas contra esse padrão.  Podemos começar com a seguinte afirmação: uma instância única de determinado objeto durante a vida útil de uma requisição não é um Singleton. Um Singleton, por definição, é justamente esta instância acessível globalmente no projeto. Análogo às descrições dadas pela GoF (Gang of Four), no livro “Design Patterns”, podemos elencar 3 características básicas para definir o que precisamos para criar um Singleton: Ele deve possuir uma única instância durante a vida útil da aplicação; Não deve ser possível instanciá-lo através do seu construtor, que precisa ter visibilidade preferencialmente privada; Sua instância deve estar disponível de forma global, no seu projeto. Estas definições são muito importantes, pois a falha no entendimento do que um Singleton representa pode acabar levando pessoas a não entenderem a acusação de ele ser considerado um anti-pattern. Anti-Pattern? É de comer? Anti-Patterns, ao contrário do que soa à primeira vista, não são necessariamente o oposto de um padrão de projeto. Os chamados “anti-padrões”, em resumo, são respostas comuns a problemas frequentes, que são normalmente ineficazes e têm um grande risco de serem contraproducentes. Atenção no detalhe: são “respostas comuns” para “problemas frequentes”.  Ou seja, ser um anti-pattern não anula o fato de o Singleton continuar sendo um padrão de projetos.  Os anti-padrões têm mais a ver com o uso errado de uma solução correta, do que a solução em si ser algo ruim  ─ apesar de que isso também pode ocorrer. O Singleton na prática O Singleton, como já explicado, provê ao desenvolvedor uma instância única de um objeto e de escopo global. Abaixo, segue um exemplo de como seria sua implementação utilizando a linguagem de programação Java. public class Singleton {     private static Singleton instance;     private Singleton() {}     public static Singleton getInstance() {         if (instance == null) {             instance = new Singleton();         }         return instance;     } } Observação: Apesar de na classe de exemplo estar explicitado o nome “Singleton”, é importante reforçar que você não precisa mencionar o nome do padrão de projetos no nome da classe. Isso apenas foi feito para exemplificar a sua estrutura. O Singleton pode ser uma solução viável caso esteja em uma situação em que se apresente esses dois problemas: Você precisa de apenas uma instância de um “objeto X”; Você precisa acessar essa instância de qualquer lugar da sua aplicação. Caso um dos dois itens acima não fizerem parte das suas necessidades, provavelmente há outra saída para o seu problema. Se você não necessitar de uma única instância, o construtor de seu objeto não precisa ser privado. Basta instanciar seu objeto onde quer que você precise utilizá-lo; Se não é preciso acessar sua instância de qualquer lugar, significa que você possui um escopo limitado. Neste caso, uma alternativa seria identificar “a partir de onde” é necessário acessar seu objeto. Uma forma de fazer isso consiste em criar um campo estático privado que guarde sua instância e passar este objeto por injeção de dependência onde quer que ele seja utilizado.  O tema “injeção de dependência” e sua ligação com o Singleton, será abordado mais adiante ainda neste artigo. Benefícios do Singleton Apesar da resistência de algumas pessoas, os Singletons possuem benefícios bastante interessantes.  Confira alguns deles:  É extremamente fácil de acessar: servindo como uma variável “de escopo global”, fica evidente que seu acesso é excepcionalmente simples. Não há a necessidade de transitar a instância do seu objeto por todo o seu sistema. Garante que só haja uma única instância: independente de qual o objeto ou motivo, o Singleton vai garantir que exista apenas uma única instância dentro do seu projeto. Assim, são evitadas falhas lógicas que podem envolver esta regra. Algo interessante de se comentar, que tem direta ligação com os benefícios citados acima, é a sua versatilidade para atuar como uma chave Mutex (Mutual Exclusion). Em ambientes multi-thread, onde duas ou mais operações podem entrar em concorrência, a instância da “chave” se mantém sendo uma só. Dessa forma, o controle de execuções é facilitado.  Evidentemente, o Singleton em si não está isento de concorrências. Por isso, precisa de um tratamento adequado dependendo da linguagem em que está sendo utilizado, para que, assim, possa ser considerado uma solução thread-safe. Se você nunca ouviu falar sobre Mutex (também chamados de “semáforos”, ou “locks”), mas se interessou pelo assunto, recomendo uma leitura deste artigo. Custos do Singleton Fazendo uma breve pesquisa, podemos encontrar vários artigos de diferentes autores comentando sobre custos diversos que envolvem a implementação de um Singleton.  Dentre os mais discutidos, os que mais considero interessantes abordar, são: Quebra dos princípios SOLID; Fator “falta de rastreabilidade”; Dificulta na implementação de testes; Sacrifica transparência, por conveniência. Para tornar mais fácil a digestão do que cada problema representa, vou explorar cada um desses fatores nos próximos tópicos.  Ele quebra os princípios SOLID A primeira e mais comum questão quando se trata do Singleton, é que ele quebra os princípios do SOLID. Para ser mais exato, o Princípio da Responsabilidade Única (SRP – Single Responsability Principle). O seguinte trecho é responsável pelo problema: public static Singleton getInstance() {     if (instance == null) {         instance = new Singleton();     }     return instance; } Isso acontece, porque, além de o Singleton ter o controle do ciclo de vida do objeto (sua instância interna), ele também garante o acesso do mesmo. Com esses dois fatores somados, acabamos com duas responsabilidades. Mas, o que deveria ser feito para que não houvesse a quebra do SRP? Em resumo, a responsabilidade de popular o instance deveria ser delegada para outra classe; exatamente uma das propostas de outro padrão de projetos, conhecido como Monostate. Caso queira saber mais sobre o SRP e entender o porquê da sua importância, recomendo a leitura do nosso artigo Conheça um dos princípios SOLID mais importantes: Single Responsibility Principle, escrito por meu colega, Pacifique Mukuna. Falta com rastreabilidade Suponhamos que você está em uma situação em que precisa criar e controlar as instâncias de um usuário de um determinado sistema, e que apenas um usuário pode estar conectado por vez. Uma possibilidade seria a de criar uma classe “gestora” dessa instância de usuário conectado. Existem algumas alternativas possíveis para seguir com o desenvolvimento. Criar um Singleton servindo como a “classe gestora” é uma delas. Assim, não seria necessário se preocupar com as partes do sistema que precisarão consumir este usuário conectado: basta recuperar a instância da classe gestora, que é acessível de qualquer lugar do projeto. Agora, podemos fazer uma reflexão: “neste sistema, qual o objeto que pode alterar o usuário que está conectado?” Parece fácil: “o Gestor”, provavelmente seria a primeira resposta. Refletindo um pouco mais na solução, podemos observar um detalhe muito importante sobre este desenho: a classe gestora é acessível de qualquer lugar do sistema. Portanto, a solução implica que o usuário pode ser alterado de qualquer local também. Indo um pouco mais além neste exercício, podemos esquecer a classe “usuário” e substituí-la pelo “Objeto Genérico X”, que constantemente é modificado pelos objetos que o chamam. Observe que conforme o nosso objeto Gestor é utilizado, mais comum passa a ser o fator “falta de rastreabilidade”. A questão aqui é mais filosófica do que prática. O fato é que, por mais que seja justificado o seu uso, podemos concluir que há duas questões absolutas e intrínsecas neste padrão de projetos: Você não pode garantir que as propriedades do seu objeto não vão mudar, quando não deveriam mudar. Neste quesito, o acesso global é o fator que torna muito difícil prever o uso indevido do Singleton; Como consequência do fator anterior, se houver uma modificação indevida nas propriedades do seu objeto, é extremamente complexo de identificar o ponto em que está havendo a alteração. Principalmente em grandes aplicações onde operações que modificam as propriedades do objeto são comuns. Torna difícil a implementação de testes Sobre esse ponto, quero que você preste atenção. Não estou dizendo que o Singleton é difícil de testar, mas sim que ele torna difícil a implementação de testes. Isso ocorre, geralmente, no código que o consome. Para não me estender nesta explicação, leve em consideração que para ter o entendimento do porquê o Singleton dificulta a implementação de testes, é necessário ter uma base do que são testes automatizados. Em especial testes unitários e como eles são implementados. Mas, de forma resumida, um teste unitário consiste nas seguintes ideias: Testar uma classe de forma isolada: se todas as partes de um determinado sistema estiverem funcionando de forma independente, não deveria haver problema quando todas juntas. Porém esse é um assunto discutível, e depende da intenção do desenvolvedor; Testar de forma independente: além de testar a classe de forma isolada, cada teste deve ser absolutamente independente um do outro. Independentemente da ordem de execução, todos os testes precisam passar; Testar de forma rápida: por consequência dos pontos anteriores, os testes unitários têm a peculiaridade de serem de pequeno escopo, e, portanto, são de rápida execução. Os testes unitários são a base daquilo que na engenharia de software é conhecido como “pirâmide de testes”. Em ordem de prioridade, são aqueles que deveriam existir em mais abundância nos projetos. Para entendermos o problema que o Singleton pode apresentar durante a execução de um teste unitário, podemos recuperar a ideia descrita mais acima, sobre existir uma “classe gestora” do usuário conectado. Vamos chamá-la de RegistroUsuario.  Além disso, levemos em consideração que determinado sistema possui um serviço com a seguinte verificação: public class Servico {     public boolean usuarioPodeCadastrarNovosClientes() {         // Obtém a instância do Singleton         RegistroUsuario registroUsuario = RegistroUsuario.getInstance();         // Guarda o usuário conectado no sistema em uma variável         Usuario usuarioLogado = registroUsuario.getUsuarioLogado();         // Faz um retorno indicando se o usuário conectado tem a permissão         return usuarioLogado != null && usuarioEhAdmin(usuario));     }     private boolean usuarioEhAdmin(Usuario usuario) {         return “ADMIN“.equals(usuario.getPermissao());     } } O serviço acima é relativamente simples, e apenas verifica se o usuário conectado no sistema atualmente possui permissão para cadastrar novos clientes.  O método deve retornar “VERDADEIRO”  se houver um usuário conectado, e este usuário possuir a permissão “ADMIN”. Se você já tem o costume de criar testes, facilmente conseguirá identificar três possíveis cenários: ou o usuário é ADMIN; ou o usuário não é ADMIN; ou não tem usuário conectado. Podemos criar uma classe de teste unitário para automatizar estas verificações, como no exemplo abaixo: public class ServicoTest {     private Usuario usuarioAdmin = new Usuario(“ADMIN“);     private Usuario usuarioComum = new Usuario(“COMUM“);     private Servico servico;     @Before     public void setUp() {         this.servico = new Servico();     }     @Test // Quando não há usuário conetado.     public void teste01() {         RegistroUsuario.getInstance().setUsuarioLogado(null);         Assert.assertFalse(servico.usuarioPodeCadastrarNovosClientes());     }     @Test // Quando há usuário conetado, mas não possui permissão.     public void teste02() {         RegistroUsuario.getInstance().setUsuarioLogado(usuarioComum);         Assert.assertFalse(servico.usuarioPodeCadastrarNovosClientes());     }     @Test // Quando há usuário conetado, e possui permissão.     public void teste03() {         RegistroUsuario.getInstance().setUsuarioLogado(usuarioAdmin);         Assert.assertTrue(servico.usuarioPodeCadastrarNovosClientes());     } } Acontece que os testes unitários, na maioria dos casos, rodam em paralelo por serem independentes. É exatamente neste ponto que o Singleton passa a ser um problema. A execução em paralelo faz com que os testes executem modificações no Singleton em concorrência, e, quando teste01, por exemplo, for realizar o assert da informação invocando o método do serviço, é bem provável que outro teste, como o teste02, já tenha modificado o valor do Singleton novamente, o que causaria um falso-negativo no assert do teste01. Talvez o gráfico abaixo facilite em elucidar o exemplo descrito acima: Retomando o segundo item elencado sobre a definição de um testes unitário: os testes devem ser independentes. Portanto, em alguns casos, é extremamente difícil de testar unitariamente um código que consome um Singleton. Principalmente se o Singleton tiver uma ligação direta com o retorno do método que você está testando. Sacrifica transparência, por conveniência No artigo “Singletons são mentirosos patológicos”, de Misko Hevery, é dado um bom contexto por meio de testes de qual é o problema aqui: Singletons, dentre muitos outros problemas, podem tornar excepcionalmente difíceis análises e descoberta de cadeias de dependências. O exemplo utilizado por Hevery pode ser considerado um tanto extremo. E, talvez, realmente seja, por ser um caso bem particular de um evento que ocorreu com ele enquanto desenvolvia para a Google. Mas, o seu principal ponto continua sendo válido: o Singleton nada mais é do que um estado global.   Estados globais fazem com que seus objetos possam secretamente se apossar de coisas que não são declaradas em suas interfaces. Como resultado, Singletons transformam suas interfaces em mentirosos patológicos. Assim, podemos interpretar a frase “sacrifica transparência por conveniência” como sendo algo comum de variáveis de escopo global, por não haver explícito as dependências na interface do código que consome o Singleton. Análogo à imagem acima, podemos dizer que o método fazAlgumaCoisa(), do Objeto A, não sabe que o fazOutraCoisa(), do Objeto B, utiliza o Singleton. E,  novamente, isto torna excepcionalmente complexo análises de cadeias de dependências. Hevery, em especial, fez uma palestra para a Google Tech Talks em 2008, a qual eu recomendo muito caso você entenda inglês e se interesse pelo tema. Na palestra, ele aprofunda no fato de ele considerar Singletons uma má prática. Singleton versus Monostate O Monostate Pattern, ou simplesmente “Monostate”, foi um padrão de projetos proposto por Robert C. Martin em seu artigo Singleton and Monostate, em 2002, como uma proposta “Clean Code” de um Singleton. Este padrão de projetos propõe guardar uma instância única de um objeto e prover acesso global à esta instância ─ assim como o Singleton, porém, com algumas pequenas diferenças: Seu construtor deve ser público; Seus métodos não podem ser estáticos; Deve possuir uma propriedade estática privada, para guardar a instância do objeto desejado. public class Monostate {     private static Object instanciaDoObjeto;     // …demais propriedades     public Monostate() {}     public void setInstanciaDoObjeto(Object objeto) {         Monostate.instanciaDoObjeto = objeto;     }     public Object getInstanciaDoObjeto() {         return Monostate.instanciaDoObjeto;     }     // …demais métodos } Observando a estrutura de sua implementação, podemos notar que o Monostate, além de precisar ser instanciado onde quer que seja utilizado,  não controla o ciclo de vida da instância de seu objeto. Portanto, este controle também deve ser implementado pelo código que o consome. Isso traz para quem o utiliza três vantagens principais: Não quebra o Single Responsibility Principle do SOLID. Por consequência, temos à disposição seus benefícios; Por precisar ser instanciado para consumir a instância única do objeto, que é privado em relação ao Monostate, pode ser considerado uma solução mais transparente que o Singleton; Mesmo que haja concorrência de chamada do getter do Monostate, não existe nenhum controle interno que crie uma instância para você. Assim, é mais difícil de ocorrer o problema de serem criadas instâncias de forma não-intencional do seu objeto ─ e se ocorrer, provavelmente é relacionado à invocação do setter no código que o consome. Em questão de comparação, não existe muito no que se debruçar aqui. Costuma-se dizer que o Monostate e o Singleton são dois lados de uma mesma moeda, com o detalhe do tipo de categoria que cada um cai. O Monostate é um padrão de projetos do tipo comportamental, enquanto o Singleton é criacional. Ainda assim, vale o conhecimento para julgar qual o melhor padrão de projetos para cada situação. Ficou curioso? Quer saber mais sobre o Monostate? Leia o artigo completo do Uncle Bob sobre este assunto em: SINGLETON and MONOSTATE. Singleton versus Injeção de Dependência Enquanto uma das maiores premissas do Singleton é a sua conveniência, transparência é a chave da injeção de dependência. A lógica por trás deste tópico é bem simples de se entender: se uma classe ou método requer um determinado objeto para efetuar as suas operações, este objeto deve ser injetado como uma dependência. Reescrevendo o método usuarioPodeCadastrarNovosClientes(), do serviço descrito mais acima, podemos, ao invés de recuperar o usuário de um Singleton, tornar explícito a dependência que o método precisa de um Usuario. Isso também é conhecido como “passar objeto por referência”. public class Servico {     public boolean usuarioPodeCadastrarNovosClientes(Usuario usuario) {         return usuarioLogado != null && usuarioEhAdmin(usuario));     }     private boolean usuarioEhAdmin(Usuario usuario) {         return “ADMIN“.equals(usuario.getPermissao());     } } O serviço não precisa se preocupar de onde vem o usuário. Esta é uma preocupação que o cliente ─ aquele que consome este serviço ─ deve ter. Com esta pequena alteração, o serviço passou a ser: Transparente: está claro quais as suas dependências e como ele as manipula; Fácil de testar: sem o uso do Singleton, o nosso problema de execuções de testes em paralelo deixou de existir. Por último, a injeção de dependência também serve para causar reflexões em quem está escrevendo o código, trazendo insights bem interessantes.  Um exemplo seria refletir se o nosso método usuarioPodeCadastrarNovosClientes realmente precisa do objeto Usuario, ou se apenas a String de permissão já basta;  Aliás, será que realmente é necessário um método no nosso serviço para fazer essa verificação?  E se o próprio objeto Usuario possuir um método interno para validar esta regra?  Questões como essas são 100% pertinentes, e podem naturalmente ocorrer a partir do momento em que estiverem explícitas as dependências daquele trecho de código. Opinião do autor Como comentado no início deste artigo, todo padrão de projetos possui custos e benefícios de implementação (trade-offs). É importante conhecer o “lado bom” e o “lado ruim”, antes de julgarmos ou defendermos uma ideia. Eu escrevi este artigo, em grande parte, pois cada lugar no qual eu pesquisava, encontrava uma informação nova com pouquíssimas explicações que justificassem o que estava sendo dito.  Este artigo, portanto, serve como material de estudo para consolidar todas essas informações em um local centralizado. A maioria dos autores se posiciona de um lado. No entanto, em algumas ocasiões, não tem como: existem situações em que você precisa de uma única instância de um objeto, e essa instância precisa ser de escopo global.  Mas, mais importante do que precisar usar algum recurso, é entender direito como esse mesmo recurso funciona. Agradecimentos especiais Fazer este texto foi especial para mim, e muita gente me ajudou para chegar no resultado.  Assim, gostaria de deixar alguns agradecimentos. Gostaria de agradecer, primeiramente, à minha esposa, por ter gastado seu tempo lendo e relendo as versões deste texto. Mesmo sem ser da área, ela foi uma peça muito importante e um dos meus maiores motivadores para continuar escrevendo.  Queria agradecer também aos meus colegas Fernando Costa Leite e Felipe Pereira Maragno, por terem me dado alguns valiosos feedbacks durante o desenvolvimento do artigo; e ao Fabio Domingues e Francisco Hillesheim por apoiarem a escrita das vantagens que o Singleton traz para o desenvolvedor, bem como agregarem na ideia de solução thread-safe.  Por último, mas não menos importante, também queria agradecer ao Cleidir Cristiano Back, Vinicius Roggia Gomes, e Renato Mendes Viegas por terem revisado o resultado final: vocês foram peças fundamentais para o refinamento do artigo. Gostou de conhecer um pouco mais sobre a polêmica do Singleton? Me conte aqui nos comentários a sua opinião!  Confira mais conteúdos como esse em nosso Blog. Quer ser nosso próximo Tech Writer? Confira nossas vagas na página Carreira!