Fundación Multitudes advierte riesgos para la democracia por acusaciones infundadas de fraude

La campaña contra el Servicio Electoral (SERVEL), levantada por grupos más conservadores en los últimos días, puede poner en serio riesgo la democracia y la institucionalidad chilena, al intentar colocar un manto de duda al proceso plebiscitario que se llevará a cabo en dos semanas, polarizando aún más el ambiente político que vive Chile en más de 50 años.

Así lo aseguró la directora ejecutiva de Fundación Multitudes, Paulina Ibarra, quien indicó que estos “cuestionamientos al SERVEL que han levantado sectores cercanos a la extrema derecha nos recuerdan misma estrategia de Trump, que desconoció los resultados electorales y armó una campaña de desinformación, que luego derivó en un asalto al Capitolio. Lo mismo pasa con Bolsonaro en Brasil, al cuestionar el voto electrónico, el que ha sido fuertemente defendido por el servicio electoral de ese país”.

“El SERVEL acaba de anunciar que estudia acciones legales contra quienes están detrás de esa campaña, en particular contra un diputado del Partido Republicano, que no sólo ha cuestionado la presencia de detenidos desaparecidos en dictadura en el padrón de electores, que se registran como ‘Persona ausente por desaparición forzada’, sino que ha hecho burla de manera cruel de esta situación”, agregó la cientista político y Magíster en Comunicación y Desarrollo de la Universidad de Georgetown, Estados Unidos.

Ibarra recalcó que “gozamos de un sistema electoral que es ejemplo mundial, que tiene resultados en pocas horas, con total transparencia, y que ha dado muestras de profesionalismo e imparcialidad en los distintos procesos en los últimos 34 años. Cuestionar su integridad es minar la democracia y colocar injustificadamente un manto de duda sobre su trabajo. No me cabe duda estas campañas de desinformación ponen en un serio riesgo a la democracia en Chile”.

“Esto es gravísimo, no hay que minimizarlo. Hay que recordar que Trump y Bolsonaro partieron de la misma forma. Sus intervenciones no fueron tomadas en cuenta e incluso muchos se mofaron de sus afirmaciones, y ya vimos los resultados. Ambos salieron electos Presidente, y en Estados Unidos casi se produjo un autogolpe, algo inédito en su historia”, comentó.

La directora de Fundación Multitudes aseveró que “hay que tener las alertas encendidas y nadie puede restarse de ese esfuerzo de desmentir y aclarar que acá no hay ni habrá fraude en el plebiscito de salida. Es mucho lo que está en juego para el futuro del país este 04 de septiembre y todos debemos velar por que ese proceso se haga sin ningún tipo de cuestionamiento infundado”.

Fuente: Página 19

TechCamp report

Techcamp chile platform

PUBLICATIONS

RESOURCES

CONTACT LIST

TECHCAMP CHILE TO COMBAT THE IMPACT OF DISINFORMATION IN ELECTORAL PROCESSES

Introduction

Chile has one of the most prosperous digital environments in Latin America. With the rise of social media, traditional news, radio and streaming of popular channels, the Chilean population avidly consumes their information digitally. However, the growing threat of disinformation has not metabolized into public knowledge at the same rate. Combining low media literacy, record levels of content, and a historic political transformation in Chile, the time has come for taking innovative action on the fundamental issues affecting democracy in the digital age.

In this context, Fundación Multitudes, together with the U.S. Department of State and the U.S. Embassy in Santiago, in addition to La Tercera as a media partner, implemented on December 2 and 3, 2021 the TechCamp Chile to Combat the Disinformation in Electoral Processes, as a launching pad to advance the commitments of the Year of Action of the Summit for Democracy, with the aim of creating capacities and generating awareness about the impact of disinformation in electoral processes, particularly when used as a form of violence against women in political life.

Specifically, TechCamp Chile had four specific purposes:

  1. Raise awareness of the threat that fake news and disinformation pose to electoral processes and democracy;
  2. Conduct training sessions and programs that enable members of civil society, academia, the media, the data science and technology sectors, and political circles to identify and combat fake news and disinformation campaigns and mitigate their most negative effects for democracy;
  3. Carry out information exchange sessions between members of different sectors to address the multidimensional nature of disinformation and fake news; 
  4. Actively defend the most vulnerable and affected by the threats and attacks of fake news and disinformation in politics. In Chile, women, communities of indigenous peoples, LGBTQ+ communities and young political activists are the most affected by these phenomena of digital violence. The normalization of these phenomena must be reversed, diminished and prevented.

As a result, during two intense days, a total of 34 participants from different sectors of society were trained by 15 trainers on how to combat the effects of disinformation in electoral processes, especially when it is used as a form of gender-based political violence.

Participants’ characterization

Trainers’ characterization

As one of the products of this capacity-building program, this document seeks to present a brief summary of the activities carried out within the framework of TechCamp Chile, as well as a report on the achievements and analysis of the exit survey to visualize the main learnings and results of the program.

Summary of TechCamp Chile Day 1

Lecture 1: Disinformation: Key Concepts and Overview of its Threat to Democracy

Disinformation: Key Concepts and Regulatory Frameworks in Latin America. Vladimir Garay, Director of Advocacy of Derechos Digitales

Disinformation is not a new phenomenon, since the year 1600, even before, it was used as a tactic of war. Likewise, there is no consensus regarding the impact of disinformation, nor a universally accepted definition of what it is, due to the complexity of the phenomenon, since it is related to various aspects of democratic life and develops differently in each society.

As for regulatory frameworks, general prohibitions on the dissemination of disinformation based on imprecise and ambiguous concepts can become a danger to freedom of expression. Restrictions on freedom of expression must be provided for by law, they cannot be subsequent, they must pursue a legitimate purpose that is recognized by international law, and they must be necessary to achieve that purpose.

In 1985, the Inter-American Court of Human Rights established that a system to control the right of expression for the sake of guaranteeing the correctness and veracity of information violates society’s right to information. However, given the possibility of information produced with “real malice”, the Office of the Special Rapporteur for Freedom of Expression establishes that it could be sanctioned, but as a subsequent action, and the Inter-American Court establishes a precedent in the Case of Ríos et al. vs Venezuela by pointing out that when ruling on issues of public interest, state authorities must reasonably verify the facts on which their opinions are based with greater diligence than that used by individuals.

At the national level, there are legislative initiatives in various Latin American countries related to the dissemination of false information, in the case of Chile there is the Draft Law for the Regulation of Digital Platforms that incorporates the notion of “manifestly false information”, a vague concept, and establishes a standard of strict and absolute liability, a draconian issue that does not exist in other parts of the world. 

The solutions to disinformation cannot only be legal, it is important to create conditions so that the different actors in the system can operate better in the information ecosystem.

Recommended readings:

Alsur. (2019). Desinformación en Internet en contextos electorales de América Latina y el Caribe: Contribución regional de organizaciones de la sociedad civil ligadas a los Derechos Humanos en el entorno digital. Recuperado de: https://www.alsur.lat/sites/default/files/2020-04/Consulta%20p%C3%BAblica_%20Desinformaci%C3%B3n%20en%20contextos%20electorales_ContribucionRegional-AlSur.pdf

Corte Interamericana de Derechos Humanos. (2009). Caso Ríos y otros vs. Venezuela. Sentencia de 28 de enero de 2009 (Excepciones Preliminares, Fondo, Reparaciones y Costas). Recuperado de: https://www.corteidh.or.cr/docs/casos/articulos/seriec_194_esp.pdf

Faris, R.; Roberts, H.; Etling, B.; Bourassa, N.; Zuckerman, E. y Benkler, Y. (2017). Partisanship, Propaganda, and Disinformation: Online Media and the 2016 U.S. Presidential Election. Berkman Klein Center Research Publication 2017-6: https://ssrn.com/abstract=3019414

Sunstein, C. (2021). Liars: Falsehoods and Free Speech in an Age of Deception. Oxford Scholarship Online. https://oxford.universitypressscholarship.com/view/10.1093/oso/9780197545119.001.0001/oso-9780197545119

The Threat of Disinformation to Democracy: Examples of Disinformation in Chile. Tomás Martínez, Founder of Mala Espina Check

In the case of disinformation against the Constitutional Convention, President Elisa Loncón has been the target of this from the first day, with points of viralization when contingent situations occur. For example, in the context of the installation of the Convention, one of the first disinformation campaigns arose with an alleged photograph of the president greeting Augusto Pinochet. In this type of campaign, in addition to disinformation, it enters the field of discrimination against indigenous peoples, gender-based violence, resulting in an intersectionality of vulnerabilities. Campaigns about supposed bonuses and winter vacations, among others, seek to undermine the work of the Constitutional Convention as an institution and of some of its members specifically.

As for disinformation in electoral campaigns, they tend to focus on the candidates who lead the preference polls. Regarding types, it has been observed that they come from the candidates (incorrect figures or data), that they affect other candidates, and can influence the decision of the voters; they refer to the decision to go or not to vote, some examples are that the Armed Forces are not going to guard the polling places (false), or that the Chilean Electoral Service uses Venezuelan software (false), among others; and the dissemination of inaccurate information by the candidates in their public speeches, for example, Gabril Boric about the patrimony of José Antonio Kast, or José Antonio Kats about the countries that are part of the United Nations Security Council.

Disinformation takes loose ends of a true situation, manipulates them, and generates a narrative that confuses citizens. Memes and parodies also generate disinformation, so it is important to counter the narrative they convey.

Disinformation in Electoral Processes in Latin America. Elodie Martínez, Head of Fact-checking for Latin America and Spain at AFP

Agence France-Presse is the world’s leading Fact-Checking agency. In 2017, AFP built the world’s largest fact-checking network in the context of the French presidential election. The team for Latin America and the Caribbean is coordinated from Montevideo, having covered electoral campaigns at all levels and also census campaigns, where disinformation has been observed to weaken democratic institutions.

Some points to discuss about disinformation in Latin America and the Caribbean in electoral contexts are the discrediting of male and female candidates with unfounded claims; debates used as disinformation tools; information to insert distrust in the electoral system; and accusations of electoral fraud that lengthen the processes.

As for the candidates, there are publications that are spread for the purpose of humor, memes and parodies, which mislead certain people who do not understand the narrative; there are images or videos that are taken out of context that generate doubts about candidates.

Regarding the public debate, these scenarios are used to deliver biased, simplified, false information, which delays the verification process due to the number of figures published by the candidates, and the need to resort to reliable sources.

Regarding the confusion surrounding the electoral process, disinformation focuses on who can participate, dubious tools, strategies that can invalidate votes, and measures in the context of Covid-19. For example, that there are two election days instead of one, the installation of electronic voting, etc.

As for accusations of fraud, in most cases doubtful situations have an explanation, but it is very difficult for people who are convinced that fraud exists to be rationally convinced otherwise.

Fact-checking is providing elements accessible to the entire population so that each one can issue their own opinion and judgment.

Some measures against disinformation are the teaching of tools to students and fellow journalists, as well as to users; check the speech; establish alliances with the media, electoral bodies, civil society organizations; and establish alliances with platforms on which disinformation circulates.

Capacity Building Sessions 1

Generating Impact through Business and Policy. Carla Dearing, Partner at Velo Group LLC

One model of entrepreneurship is to collect resources and skills before starting, then find a strategic ally to continue the process. Some resources and skills to have before starting the initiatives are:

  • Personal Related: Corporate; Sales and marketing, customer service, and other personal skills (25% of components).
  • Related to sales: Sponsors, conferences and promotions.
  • Marketing Related: Social Media Ads/Ambassadors; video/photo production; press relations; blog content; and design and materials.
  • Related to technology: Hosting + infrastructure; mobile apps and website development; and corporate website.
  • Other Resources: Office resources and professional services.

While the barriers to mobile app development have been lowered in recent years, as a simple app can be coded in a single weekend, today for a tech-related venture to be successful, you have to gather the necessary resources mentioned above.

Five truths learned:

  1. Making change requires a lot of money, especially in #FinTech;
  2. Good intentions (and a good brand) are not enough. The business model must work;
  3. The only people who access capital before profits are those with special access, usually not people from vulnerable communities. You must be smarter;
  4. Technology can be used to do all the little things right at low capital cost;
  5. Excellence attracts all the talent, partners and clients one needs for success.

These truths that are identified in the world of entrepreneurship can be applied to the structure of power in public affairs, especially to engage the voices of communities that are usually not represented, such as women.

When women decide to get involved in public life, they must make the decision to be exposed to attacks against their public and private life. The possibility of being elected as authorities is the subject of conversation around their gender identity and not their ability to exercise public office.

There is no easy way to participate in decision processes when you are a woman, so it is better to get involved from the beginning. The recommendation is to start by 1) finding allies (the right people who provide support, believe in the mission, understand the difficulty of participating in politics as a woman) and 2) gathering the resources mentioned above. Starting a political campaign is similar to starting a business.

Silencing women is a form of violence, including situations when a woman questions whether she can be a leader for fear of being attacked.

One strategy to use to deal with attacks on social networks against women who participate in politics is to have a team that monitors the different platforms to identify potential disinformation campaigns against them. Disinformation is one of the reasons why women decide not to participate in politics.

Transmedia Storytelling Tools. María Laura Ruggiero, Narrative Designer and Storyteller, SeirenFilms

In storytelling, stories traditionally have a beginning, middle and end. That still works, but in the digital world it’s applied in layers. Today terms arise that aim to generate experiences; content and platform; attention as the most precious asset; and the interaction that makes the story stop being linear.

Digital storytelling has two sides, the content as a snack and the immersive experience. In the first case, the content is considered a snack, something that is consumed while doing other things, that is, a quick and short consumption that whets the appetite.

In the second case, there are ways to create the immersive experience without using a device, as occurs with series and movies where one loses track of space-time. This depends on the audience and the users, being understood as different actors, since the former are passive while the latter have the possibility of interacting.

Transmedia is storytelling based on the audience, it generates the idea of ​​discovery, it refers both to a system and to the way of regulating the rhythm within it. It involves going through different digital spaces to understand history. Transmedia as a system implies storytelling, audience participation, multiplatform (at least two spaces), connections between content (these must be understood as a whole and individually), expansive and free.

There is a strong connection between users and technology. You must understand the users and who is going to be immersed in the story. Immersion is a construction, it is not something that happens automatically, it is a design of sensory elements, information and interaction that makes the person feel that they are trapped in a story.

Immersive content that requires a technological platform is divided into three forms: VR for virtual reality (created entirely where one can move through space), 360 Video (cameras that record space in 360) and AR for augmented reality (reality mediated through a camera).

In the immersive there is organization of a system, where it is necessary to understand how each element interacts: user, dynamics and history. Based on the characteristics of the user, the dynamics to transmit the story are defined. Think from users, from stories and from dynamics. For example, for users with little internet access, the best way to reach them with activist content may be through short podcasts.

Any technological platform can be used to tell stories. We have the possibility of generating something immersive, understanding users, and telling a different story (for example, using a video game to do activism).

Whenever there is talk of storytelling, especially immersive, there is an emotional journey and a structure that includes the interaction that must be prepared to respond to the unforeseen.

Impact of the Processing of Personal Data on the Dissemination of Information in Political Campaigns. Romina Garrido, Master in Law of New Technologies, University of Chile

Data privacy is a useful tool to reach the right audience, transmit a message in the best way and know who the final recipients are. Privacy is beginning to be seen as a collective right when data is used in decisions that affect an entire community.

Massive data can come from different sources such as thoughts, what is shared on social media, reactions to publications, the devices we use, geolocation, etc. The human being is the greatest creator of data and data is generated every minute.

Traditionally it is said that data is the new oil, but this is a myth because if the data is lost it is difficult to replace it with others. Data are unique characterizers of people.

What is done with the data is descriptive analytics and prescriptive analytics. Both rely on massive aggregate data sets, the difference is what you do with them. In the first, the aggregate data is taken and then statistical models are used to forecast or predict future behavior; and in the second case, the aggregated data is taken and then fed to machine learning algorithms to form a picture of the person’s identity.

In mass data processing, profiling is a form of automated processing of personal data that consists of using these to determine aspects of someone: evaluate or analyze aspects related to professional performance, economic situation, health, personal preferences, interests, reliability, behavior, location or movement. The techniques used for this, for example, is microtargeting, which consists of the management of large amounts of data, in which common patterns are sought through selection criteria that consider inclinations, interests, concerns, socioeconomic situation, educational level, age group, etc., with the aim of creating segmentation of the total group.

The Cambridge Analytica Case best exemplifies the impact of data processing on political campaigns. The analysis can be done from 3 axes.

The first is academic and commercial research. In 2012 a Russian professor joined the Pyschometrics Center of the University of Cambridge, who developed a personality test for academic purposes, this professor also had his own company called Global Science Research, one of his clients being SFL, parent of Cambridge Analytica. The “My Personality” test was later taken by the researcher to his company and was called “This is my digital life”. The test, answered by approximately 270,000 people, evaluated 5 personality types: openness to experience, conscientiousness, extraversion, agreeableness, and neuroticism. When the case explodes, the fine line between academic investigation and commercial investigation becomes apparent.

The second edge is Cambridge Analytica as a political consultancy. It presents itself as a specialist in data collection and analysis for advertising and political campaigns. It is accused of obtaining people’s data from Facebook, against the platform’s security conditions, to frame people based on personality types and send personalized political messages to influence their decision. As a consultant, Cambridge Analytica developed a tool to create psychographic profiles based on data that came from more than 5,000 collection points, including Facebook.

The third edge is Facebook as a business model. User data is the product offered to advertising companies. Until 2015, the Facebook API allowed data backup, so when users answered the personality test, in addition to accepting the processing of their data, they were giving authorization to access the data of their contacts, which means that of the 270 thousand people who responded to the survey, the number of affected users reaches 87 million, of whom Cambridge Analytica had access violating the terms and conditions of Facebook but not the technological tools that the company had. Cambridge Analytica sold the segmentation of profiles for the dissemination of political campaigns, reaching each audience with effective messages.

Related to disinformation in electoral processes, data processing allows the creation of bubbles of disinformation according to the type of person, which can alter their decision intention.

Workshop 1: Tools and Strategies to Monitor Public Debate on Social Media. Dalby Dienstbach & Lucas Roberto Da Silva, Fundação Getulio Vargas

In the case of free tools to analyze and collect data on the main social platforms, there are tools for Facebook, Twitter, WhatsApp and YouTube (it should be noted that there are also tools for new platforms like TikTok): Crowdtangle (the best way to get data from Facebook), Orange, Socialblade, Gephi (to build graphs) and DMI Tools (gives access to data from various sources such as Wikipedia, YouTube, etc). If you are an independent researcher and/or do not have programming skills, it is recommended to use Orange, DMI Tools and Gephi, to monitor the debate, especially on Twitter; if you want to deepen the investigation and use new methodologies, you need to use Python to have more control of what happens.

Regarding Facebook, it does not have API (Application Programming Interface), access to the data that social media companies grant without having to reserve it in the researchers’ own database. Facebook disabled this option after the Cambridge Analytica scandal, now they grant access to their data only to researchers using the Crowdtangle tool, which requires the institution to be approved (it can take from 2 days to 1 week approximately). Crowdtangle also gives access to data from Reddit and Instagram, in the case of Facebook it does not give data from comments.

In the case of Twitter, access to data is much more open, you have access to historical data and data in real time, but these have limits, for example, with the new API that they are developing, API V2, you only have access to 500,000 tweets per month; likewise, you must apply to gain access.

In the case of YouTube it is different, the API uses different quotas to give access to data. There are some free tools, but the application for permission is reviewed automatically, you can develop your own tools, but they give low levels in the first moments, they can revoke your access if they believe that the research is not valuable to the public and/or the platform.

WhatsApp does not have an API, there is no way to access the data in an official way. There are ethical issues on this platform because you can access data from users who do not know that their information is being used in an investigation, this being the most complex aspect of the investigative process.

As for paid tools, the scope they offer on social media (most offer Twitter, Facebook and Instagram), the volume of data and the possibilities of exporting them (some have limits), access to historical data and analytics capabilities should be considered.

Regarding the research design, it is a step that must be taken before collecting the data. The steps are 1) Define the topic, 2) Explore discourses in courses, 3) Identify strategies, 4) Write the research question (“query”), 5) Validate the research question, and 6) Implement the research question.

In the first step, it is defined what to look for when monitoring, for which research questions, hypotheses, objectives, etc. are constructed. Topics can be events (e.g. elections); topics (e.g. hate speech debates on the internet), actors (e.g. candidates, activists, authorities, companies, state institutions, etc.). Sometimes a category of three must be included in the design, and each can lead to higher topics and subtopics that must also be analyzed.

The second step is to explore the discourse around the chosen topic, that is, what has been said about it. We need to focus on “where” these discourses are taking place and “who” is hosting them. Normally, pages are searched on the internet, such as institutional web pages, social media such as Facebook pages, media platforms.

The third step is to identify linguistic discourse strategies. It focuses on what form the speeches have: “what” is said and “how” what is related to the topic is said. Linguistic decisions must be made, for example, using words, phrases, proper names, slang, hashtags, accounts, etc. The variations that users can use and potential typing errors must be considered.

The fourth step is to write the query, which is a syntax, linguistic element of the investigation. The purpose is to transfer linguistic discourse strategies into syntax that will enable access to information. Search words are combined with logistic operators such as “and”, “or”, “not”, these represent the relationship between two terms. When constructing the syntax, morphological, lexical and semantic principles must be considered, as well as variations and other linguistic aspects; in addition to the moment of the speech and the moment of data collection.

The fifth step is about validating the query, it consists of using different tools to verify that the research objective is met, verify that no word, hashtag, etc. has been ignored, in addition to identifying superfluous data, which is not relevant for research, to think about including or excluding logical connectors. The query serves both to collect data and classify it.

The last step is to implement the query to collect and/or classify the data using different tools, whether paid or free.

Recommended reading

Department of Public Policy Analysis of Fundação Getulio Vargas. (2021). Hate Speech in Digital Environments. Recuperado de: https://democraciadigital.dapp.fgv.br/wp-content/uploads/2021/03/EN-Estudo-3-I-Discurso-de-Odio-Ficha-e-ISBN.pdf

Summary of TechCamp Chile Day 2

Conference 2: Disinformation as an Intersection between the Erosion of Democratic Institutions and the Low Participation of Women in the Electoral Processes. Kristina Wilfore, Co-founder of #ShePersisted

In recent years, there has been an evolution in the attacks that women in politics receive, silencing women activists and using technology as weapons to undermine democracy by undermining women. Information has been collected on testimonials from women politicians who have reported attacks to undermine their public agendas across the European Union and parliaments around the world, where disinformation plays a major role.

But the threats that women face online combine multiple edges: on the one hand, you have the sexism and misogyny that is unfortunately normalized in social media, this is also combined with online violence, threats, hate speech and intimidation. Likewise, in recent times disinformation has been increasing, where they have artificial activity and a “weaponization” of it in attacks. Thus, we can say that gender disinformation has these three edges that act simultaneously.

The research that #ShePersisted has been doing shows that there are certain unique characteristics that women have experienced by being women in politics. The first parameters are called “leadership biases”, which take four axes that suggest that women are untrustworthy; incompetent or without the necessary qualifications; unfriendly or disliked for the position; and uncontrollable or erratic. This in turn is positioned in conjunction with sexualized attacks, where only the image of women is transformed into a “meme”, causing graphic accusations and in which women are accused of occupying their sexuality and offering sexual acts to gain access to positions of power. Compared to studies of men running for the same public office, it is evident that attacks against women are mostly focused on the character of the person and are less likely to include facts.

To begin to analyze this phenomenon, we must go to the basis of the discrimination and bias that affects women in politics, both online and offline, specifically in how we characterize women compared to men. The types of names and/or adjectives we use to describe women are not the same as those we use to describe men, and in some cases the same attitudes are characterized in the opposite way. For example, if a woman “says about” a topic or content, in a man it can be characterized as “knowledgeable” or “passionate”. It is in these examples that the differentiations and biases begin, which have become even more detrimental with the new technology that exists.

There are several analysis axes where we can see that new technology is making it easier to “weaponize” these attacks. There is a relationship with technology that aims to silence women in order to erode democracy. Gender is the favorite topic of authoritarian leaders and actors in society who seek to roll back the progress made by organized groups of women and minority groups who hold them accountable for representing them and accuse them of corruption.

Special attention needs to be paid to digital platforms and algorithms that facilitate, reward and amplify hate speech to earn resources and money, so they cannot be left out of the equation. This is evidenced by the latest leaks of private information on Facebook, when the former employee of this platform Frances Haugen exposed that the platform contains special rules for “VIP clients”, an example of this is the case of the Brazilian soccer player Neymar who has 150 million followers on Instagram and who was accused of rape in 2019. After what happened, the player uploaded the conversations and private messages (along with intimate photos of the victim) to his Instagram stories, defending himself and “proving” his innocence.

On the other hand, the journalist María Ressa, winner of the Nobel Peace Prize, has been the victim of hate attacks where language has formed new terms to classify. “Presstitute”, a play on words between prostitute and press in English, has been used to devalue both her person and her work as a reporter in misogynistic and racist ways.

Study cases. Examples.

In Brazil, an opposition candidate to Jair Bolsonaro, an Afro-descendant who was murdered, continued to be a victim of disinformation and fake news after her death and this was on the rise, as news began to emerge that associated her with prostitution, drug trafficking and drugs. This news justified her death through these associations and blamed her supposed personal behavior as the reason for her death, instead of considering her political activity.

In Italy, Laura Boldrini constantly faces intimidation, threats of rape and death. She has tried to contact Facebook directly so that the platform interferes and even deletes posts within her social networks to stop this phenomenon. These threats continue on her Facebook page and this platform has not interfered with the hate speech she constantly receives.

In #ShePersisted, the work was done to document the experiences of these women in social media, where disinformation was observed as a common phenomenon.

Likewise, a very sexist atmosphere and approach has been created. “Deep Fakes” or “ultrafake”, being this a false news that has used technological mechanisms to make it seem true, is used mostly as a mechanism to attack women, since 90% of all deepfakes that are circulating have as main protagonists women in scenarios of non-consensual pornography. The German chancellor candidate Annalena Baerbock suffered an episode in which a photo was leaked in which she supposedly came out showing her breasts, which was later proven to be false. This directly affected her candidacy from the beginning and it was speculated that she was not qualified for the position, having 5 times more fake news than the rest of her opponents.

In Canada, the former environment minister was likened to an “environmental Barbie”, using this photo to suppress her efforts and agenda towards clean energy. This caused her to escalate the threat against her, assigning her higher security for risk of violence.

On the other hand, the Istanbul convention, a legislative project for the protection against violence against women, became a controversial event when political groups from Hungary and Poland began to change the narrative to attack women’s rights activists and discredit the instrument speculating that it was part of a sexual minority agenda. These groups are even rewriting the way gender is talked about.

Communication tips and coalition building strategies against disinformation.

  1. Never massify a false statement. This rule is very difficult to apply since, in order to become aware of the phenomenon, these news must be shown at the same time to show what its components are. The simple fact of showing this news harms the population’s perception of women and their leadership abilities. You must learn how to divert attention from this news: each like, comment and shared news programs the algorithm to show it to a greater number of people. It is necessary to influence and encourage the spread of true and relevant news even when you want to denounce false news.
  2. Evaluate what type of information is being spread and the impact it may have. Are they real people who are watching it? Will it directly affect votes, reputation, support, speech, among others? Will it affect me in the medium or long term? Who are the actors?, etc. These factors must be categorized and the conversation must be redirected in a positive way about the achievements and plans that a certain woman in politics may have.
  3. Focus on what you can control on these platforms and news. Each user must develop a strategy within their social media. Share news that is in accordance with the principles, in a positive way and that is verified.
  4. Build a community that supports and amplifies verified news. Help activists build platforms that promote these principles by sharing them online with their clearinghouses and agendas, empowering us to continue promoting these values.
  5. Denouncing sexism on social media is important to change the perception that people have around this issue. Ignoring this matter does not solve the problem, normalizing behaviors that should be directed as a public and political figure towards their voters. Being authentic and emphasizing the severity of the problem and why it is harmful to democracy does solve the problem.
  6. Hold social media platforms and digital platforms accountable for providing the medium for hate speech and disinformation.

Capacity Building Sessions 2

Role of Personal Data Authorities in the Dissemination of Information in the Media. Romina Garrido, Master in Law of New Technologies, University of Chile

There is a personal data protection control principle, where types of control are evident: External Control, Own Control, Self-control or Internal Control, and Self-regulation. 

In the external control or supervisory authority are the public bodies that supervise the application of the data protection law, guaranteeing the rights of people, supervising, sanctioning or urging compliance with the law. 

There is a first generation of rights that refer to who has access to the data and what it is used for, and how you can oppose certain treatment. In this set is the Right of access, Right of rectification, Right of cancellation and the Right to opposition.

These new rights stress the right of expression and honor (and to be forgotten). There is a confrontation between data protection versus freedom of expression, framed in the following rights: Right to honor, Right to one’s family and Right to privacy.

In Chile, the law provides for free data processing, but this in turn has its limits. The Internet is causing these limits, set by law, to have certain nuances, such as how long you must be online. It is necessary to establish protection criteria so that the information that is disseminated does not affect the honor of the people, nor their privacy, since giving an opinion is not the same as informing.

False but diligently obtained information is lawful information. It may not justify where it is obtained from and must be rectified in the future. Erroneous, unverified information is illicit information and no type of lawful information protects humiliation or insulting acts.

Some rules for journalism that contain personal data weigh the public relevance of personal data and consider the people affected by the newsworthy event. The use of the Internet forces us to think about new limits, to think about the privacy of people, that personal data presented in the media contribute to the facts, not that they are disseminated for other reasons.

When we talk about the information that we publish on social media or other internet platforms, we must understand that this information is kept within this medium. The updating and exponential disclosure of information is good for the right to information, but they are practices directly proportional to the privacy of people and the damage that can be generated. That is why it is important to reflect on the importance of permanently keeping information online.

Right to be forgotten

We have the right to oppose the right to use past information when it is reputational, anachronistic, honor-threatening, redundant, irrelevant, and so as not to obscure the person’s current perception.

Thanks to the right to be forgotten we can suppress data on the internet under these conditions and it is intended to remake the image that others have of the person when certain facts on the internet harm them. The requirements and parameters to apply the right to be forgotten and/or delete our personal information online are that this Information is lawful and/or true, that it directly affects the person, that a reasonable time has already passed, that its affectation is disproportionate and has no historical relevance.

Actors in the management of the right to be forgotten are:

  1. Holder: affected by the information;
  2. Who manages the content: disseminates the information;
  3. Search engine: it makes it easier for us to access information;
  4. Internet user: those who want to access information.

In Europe the regulation of the right to be forgotten in relation to search engines is different, in this search engines that profit from the activity of displaying information are  regulated. They consider that search engines do not make everything automatic, since they personalize the content and offer paid spaces where one information circulates before another. In Latin America, search engines are not responsible, since they are based on mere transmission and are not responsible for what is published.

The right to be forgotten is not new, but it must be raised from digital rights. As a society, we need to reflect on the digital backpack and understand that we are responsible for what we publish on the internet. Therefore, the following questions must be asked to reframe the problem:

  • Do we have the right to leave behind aspects of our lives?
  • What happens to the information that is permanently on the internet?
  • Is it known the limitation that there is for the treatment that the media do to broadcast information?
  • When is there a conflict between freedom of information, honor and privacy?

Presentation of iconic cases related to this theme. Regarding the use of personal data by the press, Channel 13 broadcast the crime of Nabila Rifo. Gender crime in a city in southern Chile. During the investigations, her gynecological report was read on television. This was questioned since there was an informative desire to present this information, but it is of a confidential and medical nature. On the other hand, on the right to be forgotten, Herval Abreu case for sexual harassment and Abbot for corruption

Final Tips

  • What is put on the internet is one’s own heritage and one must be able to set one’s own limits;
  • Have limits on the type of information to be shared. For example: who appears, what they say, why it is being shared, etc;
  • Behind the platforms, there is a business model that is perverse and incomprehensible, and that seeks data to continue operating and selling;
  • There is a lot to regulate in terms of platforms. You must be able to establish standards of self-care and digital hygiene;
  • A responsible digital footprint must be left, ensuring that each one has control of the information when sharing it;
  • The platforms must pay more attention and provide us with services of this type;
  • Think about the new ways of deleting information and how to stop direct and public access to it;
  • Be aware of the repercussions of content on the internet.

Academia Strategies to Combat Disinformation. Patricia Reyes, Doctor in Communication, Right to Information and Ethics

The right to information is an inherent, indissoluble and inseparable right to the human condition, universally recognized in the Universal Declaration of Human Rights and other documents.

Right to investigate, receive and disseminate all kinds of information and opinions, as well as not to do so. The power to receive information entails the possibility for every individual to receive or obtain information, without restrictions, obstacles or justified objections. For Desanter Guanter, this right requires conditions: “the information you receive must be truthful, complete, timely and equally accessible to all”.

Tools

  • Development of critical thinking and promotion of intellectual curiosity and access to knowledge. Awareness of validating information sources, reviewing and seeing their veracity as their sources of information.
  • Training of information skills: Know when and why they need information, where to find it, how to evaluate it, use it and communicate in an ethical manner, as there is also information illiteracy, where training should be created on the use of these platforms: what to use it for and how to use it.
  • Training in Human Rights: Equality, freedom of expression, privacy and honor, right of access to public information and protection of personal data.
  • Gender, equality and diversity units: Establish protocols for denouncing violence and “demasculinizing” the academy in the positioning of academic women in the conversation (for example, UV Mujeres platform).
  • Proactive attitude in the fight against disinformation: Critical position against acts of disinformation and defense of rights that are especially affected historically in vulnerable groups. This work translates into participation in networks. Academic studies cannot be made invisible.

Examples

  1. Construction of protocols within the university to deal with the problem of disinformation within the academic group. The relationship may be subject to an asymmetry that must be known and acted upon when evaluating the relationships between students, teachers and workers. It works at the University of Valparaíso as a complaint that is evaluated by a technical commission that evaluates the veracity to then apply administrative measures and the course of an investigation together with accompanying measures.
  2. Concern and action against disinformation, defense of violent acts, and orders. Conscious action must be taken in these matters, changing the narrative regarding the role played, for example, by gender chairs at the university.
  3. Women’s Observatory against Disinformation and Fake News in partnership with Fundación Multitudes and Universidad de Valparaiso. 

Media Strategies to Combat Disinformation. Sebastián Rivas, General Audience Editor of the Copesa Group

The work of the media to counteract disinformation is a complex task that must start with three principles:

  1. A media outlet, from the most modern perspective of the press, has a responsibility to combat disinformation and not intentionally feed it as a minimum floor.
  2. A media outlet has a process to check what it publishes. Errors may occur in the process, but the goal will always be to obtain more accurate, precise and true information.
  3. Beyond the editorial line that the media may have and the interpretations or analyzes that it may make on the scenarios, a media outlet stakes its reputation on the fact that the information is correct and corresponds to true facts.

The journalistic check process

There must be a direct and valid source that delivers the information. It is not enough for another outlet to publish a piece of information, if it has not been personally corroborated, it cannot be published, because if there is an error it becomes part of it.

The data must be delivered identifying where it comes from, either with direct quotes (on) or, if the issuer cannot be revealed, with enough references to understand where the information comes from (off).

Unless they are official accounts, social media are not valid sources on their own. They are inputs, but information cannot be considered valid just because someone published information.

Modern challenges

Disinformation is advancing fast and out of sight: through targeted campaigns on Facebook, through WhatsApp chains. There are monetization strategies or ideologies in which it doesn’t matter what content is being disseminated is true and, at the same time, the media is publishing information at a dizzying pace.

The amount of information circulating makes errors more frequent, and it is the task of the media to develop ways to deal with this situation. 

How does the media face this challenge? There are layers of work: journalists and editors. Ideally, the process should allow for pre-publication reviews and go through multiple filters. Apply the principle of abstention, which is that when in doubt it is better not to publish and recheck.

The rectification procedure: how to communicate a relevant update or modification in already published content. However, despite all these layers, the media are in a permanent cycle of revision due to errors in the processes or in the information itself.

Within the “gray areas” of the conversation, it must be shown that a publication is not always fake news. The abuse of the concept can generate confusion in the public, since it generally has an intention and is going to be a lie beyond the possible existing interpretations. In many cases, more so in current times, there are technical failures or errors that go beyond journalistic conditions: opinion and analysis is not the same as information.

Conference 3: Social Media as the Ideal Incubator for Disinformation

Social Media as an Ideal Incubator for Disinformation in Electoral Processes. Luiza Bandeira, Researcher and Editor at the Atlantic Council Digital Forensic Research Laboratory

DFRLab’s main idea is to identify, expose and explain disinformation, how it is amplified and what are the processes involved. They work with three main axes that interrelate with each other: Democracy, security and technology. The methodology is to work with open data available on the internet: images of conflicts with geolocation and satellites to verify the information; verify what the characteristics are to identify if a profile is real or not (page source code). From this, quantitative data is taken and studied under qualitative axes to identify these problems at a social level.

Regarding social media as incubators of disinformation, it should be noted that disinformation is not only on these platforms, the environment and the context also affect the spread of this phenomenon. In the first place, there are millions of users who consume and produce information, this can be very positive for access to information as it is very detrimental to privacy. The algorithms privilege publications that generate interaction, so this becomes the purpose, at the same time that the algorithm allows “microtargeting” to specific groups, referring to the fact that information can be classified and directed to multiple preselected groups. Finally, social media are cheap and in turn monetize the publications, thus encouraging their use.

As for the concepts to take into account, there is “disinformation” versus “misinformation”, where the harmful intention of disinformation is not misinformation, which has an intention from ignorance rather than harming personally; fake news, which is used less and less as a concept given the negative connotation that has been given to it; hate speech and harassment; and propaganda.

Regarding the behavior of disinformation, on many occasions the content of the news is studied and it is filtered by its veracity, but where this interaction in the publications comes from is not studied. Bots are false and/or duplicate accounts that intervene in the behavior of news on social media. This has been evidenced in the rapid overcrowding on the WhatsApp platform.

Some actors that may be behind these influence operations or information operations in disinformation campaigns are politicians, political marketing companies, PR (public relations), governments and foreign actors.

As for Latin America and the Caribbean, fake profiles with false or erroneous information have been observed that were duplicated specifically on domestic news, with topics such as politics, activism, and criticism of political candidates during election time. The Facebook platform removed these news items with this type of information and with accounts with these characteristics.

Regarding what should be done in the face of the phenomenon of disinformation, bots and influence operations, there are general guidelines such as making the problem of deformation known, showing it as a phenomenon that does exist and is real, but at the same time without perpetuating it narrative; fact checking (review information) and debunking (verification prior to publication); innovate in social media and search for platforms to influence the community; and make visible the victims most affected by this phenomenon: minority groups, indigenous people, women, migrants, LGBTQ+, etc.

Safeguards on Social Media to Prevent Disinformation. Heloisa Massaro, InternetLab Researcher

To establish what are the elements that help to identify and combat disinformation used as a form of gender violence in social media during electoral processes, it is necessary to define two concepts. First, political violence refers to any action, conduct or omission of a physical, sexual, psychological, moral, economic or symbolic nature, which damages or annuls the environment, exercise and recognition of political rights. When it is directed towards women, it comes into contact with concepts such as misogyny and hate speech. Second, disinformation is a controversial and multifaceted concept; it is an intricate informational phenomenon that relates the transformations of digital communication together with specific socio-political dynamics. In general, we can refer to disinformation as misleading content that is also presented as truthful and trustworthy, both journalistic and scientific, but whose production lacks elements present in a journalistic and/or scientific paradigm.

InternetLab, carried out a journalistic collaboration research program, which aimed to search for key elements to identify gender violence within social media. MonitorA is an observatory of gender political violence in social media in Brazil, which is based on the understanding that political violence is an important social phenomenon that deserves attention. The goal is to demonstrate, in a concrete way, that online political violence is directed towards women in most cases.

The project identifies empirical evidence of violence that affects women, especially black and/or Afro-descendant women, trans women and members of the LBGTQ+ community, among others, creating barriers to obstruct female representation in political institutional spaces.

The results of this investigation, after the analysis of multiple platforms (Twitter, Instagram, YouTube, etc.) with hundreds of publications collected, were the following:

  1. Political violence is directed with greater intensity and recurrence at female profiles, with allusions to their bodies, intelligence (capacity) and moral aspects. Moral offenses, “fatphobia” (discrimination against fat people) and “bad reputation” were the three topics most mentioned by the candidates.
  2. During the second electoral round in Brazil, these dynamics gained new edges and attacks against women candidates: the same supporters/voters became targets of gender violence.
  3. Racism operates in different facets. For example, for Benedita da Silva (PT), an animalization of her body was made, rejection and disbelief of her racial identity, and direct parameters were established between black skin and ugliness.
  4. The rejection or phobia of members of the transsexual community (transphobia) was also presented in the speeches, denying them their gender identity and redirecting the conversation, forcing the biologization of bodies. 
  5. We observe that men, with the exception of gay, transgender and elderly groups, are considered mostly as bad managers or ideologically mistaken, unlike women in general they are offended for who they are, not for their actions as candidates or their political actions and ideology as in the case of men. 

Within the study, gender disinformation has been mapped in the narratives of social media. These narratives are used to support existing structures of oppression and inequality, they are difficult to verify as disinformation or not.

Some narratives that public actors use are found in the “grey area” between information and disinformation. These narratives can incite violence from their followers in subsequent comments. Disinformation appears both as a strategy to support violence and oppression, as well as a type of narrative aimed at specifically attacking women.

Safeguards and recommendations

  • Information about social media policies: General community guidelines (hate speech, bullying, disinformation, etc.), content moderation, election integrity policies, and comment moderation tools.
  • Avoid the amplification and oxygenation of these publications: Occupy silence as a strategy, omission of potentially harmful content; strategic massification, dissemination of ethical and responsible content; and minimize the damage, evaluating the positive and negative impact that the publicity of violent and extremist episodes can have.
  • Report abusive behavior in official information channels (government platforms for example).
  • Save evidence of violence and/or intimidation.
  • Being in constant contact between fact checkers, who help share true and proven information.
  • Avoid answering or getting into an argument with actors who seek to start hate speech and fights (bots/trolls).

Some recommendations addressed to the platforms are:

  • Include hate speech in electoral integrity policies. In order to ensure the internal visibility of the phenomenon and focus on solving this type of problem during the election period.
  • Facilitate reporting. Create simple mechanisms to prevent victims from having to report item after item cumbersomely. This becomes impossible in cases of massive attacks or when there is a high volume of attacks.
  • Invest in moderation activities, providing faster and more appropriate responses to reported incidents.
  • Be transparent about the procedures they are reporting. Why the content has been removed, who has reported it and what is the possibility of appeal.
  • Offer transparency in reporting or when removing specific content during the election period.
  • Promote awareness of campaigns against online political violence, emphasizing the consequences of each practice, inside and outside the platforms.

Capacity Building Sessions 3

Public Participation to Improve Community Engagement. Katya Petrikevich, Co-founder and International Director of Participation Factory

Public participation is the commitment that a specific group has, with the goal of collecting and creating information together. Traditionally, advocacy campaigns, planning and decision-making are carried out in relation to what is called “technical data” that comes from experts, statistics or studies which operate on a limited basis. This leaves out a whole base of what was called “living data” that comes directly from citizens and the experiences of communities that cannot be accessed from technical data. These experiences are often left aside and downplayed at the time of decision making.

The “live data” has multiple layers of analysis, first of all there is the general public considered as the least valued for not having the qualifications or the expertise to be included in the conversation, especially in public decisions and the elaboration of strategies. This is contradictory when we think that it is exactly the public who are the experts in being the members of their communities and the beneficiaries of the actions that are being carried out. This is why it is important to include them and inform them about the decisions that are being made and to co-design or co-decide to generate sustainable measures over time.

On the other hand, we have communities with greater participation over time, NGOs, organizations and companies that have an agenda in mind and that can be facilitators of the participation process, reaching a greater number of people, capitalizing on or overcoming some limitations. existing, with the aim of empowering the population.

The last group are experts, academics and those who are ultimately invited to participate in decision-making and do not include a representative percentage of the population, nor the benefits of a more heterogeneous group with multiple representatives. 

Citizen participation aims to bring more inclusion to the discussion, create a space of belonging and democratization, especially when we talk about groups that have been historically marginalized and not included in decision-making. Also, there is a high level of transparency and trust in public institutions as well as among civil society groups, since it makes people more involved in decision-making. Gathering a heterogeneous group is already valuable in itself and as an experience when analyzing the perspective and where each person within the group comes from.

 

Living data identifies real and immediate needs, much of the decision making is made on the basis of incomplete data as well as assumptions of people’s needs. The good intention of creating public policies that help these groups is often not what people necessarily need, nor is it fully understanding the particular reality of a specific context. This is why having a heterogeneity of people and groups can help to understand, conceptualize and imagine the problems that other groups do not problematize or will understand based on their experiences.

 

This is intended to create better results and products in decision-making, create higher satisfaction rates and, in general, greater satisfaction in democratic processes and participation in public institutions.

To achieve heterogeneous participation, we must start from the base and introduce them to participation processes, encouraging their voices to be heard and that they are important. There are five basic levels of public participation:

  1. Inform: Provide people with the basics about participation, be transparent, keep them updated and informed. Communicate and provide tools.
  2. Consult: Get feedback and recognize the importance of their experiences.
  3. Involve: Involve and invite to design specific objectives with a common goal.
  4. Collaborate: Invite groups to fully associate themselves with the initiatives and co-design solutions, creating new aspects without there being an asymmetry of who has the power in making decisions. 
  5. Empower: Invite groups and individuals to make decisions for themselves or as part of the community to which they belong, to vote for the best solution that they consider pertinent, delegating power to individuals. 

These levels start from a low level of participation and commitment to a sophisticated level of symmetry and involvement. 

 

Examples

  • Constitutional Assembly of Iceland (2011): 25 Icelandic citizens to write a new constitution in 2009. Tools and platforms such as social media, YouTube, Twitter, Facebook, among others, were used, using crowdsourcing for the first time as a method of constitutional review. Products such as information articles on rights, the role of parliament and the properties of Iceland’s natural resources were created.
  • Citizens’ Dialogue on Canada’s Energy Future (2017-2018): 150 Canadian citizens were randomly selected and through the deliberate dialogue process worked together and heard different opinions and perspectives. They reached compromises and compromises on the recommendations they were going to present for the future in energy Canada.
  • Participatory budgeting and the inclusion of people with disabilities in Glasgow, Scotland (since 2014): Following a change in political dynamics, a referendum was assigned to promote national identity and counter child poverty levels in the Calton district, where special emphasis was placed on historically marginalized groups such as people with disabilities, who within this initiative were able to develop a specific social program to meet their needs and experiences.
  • Future of Europe Conference: 800 European citizens were invited to discuss Europe’s challenges and priorities. This was carried out on a multilingual platform, providing a space for requests to be sent and for these to be collected, analyzed, monitored and published throughout the conference. Locations and events were decentralized, discussion panels and final plenaries were created.

Participation tools: Qualitative research, quantitative research, focus groups, public meetings, participation mapping, communication strategies, use of digital platforms, data analysis, among others.

Civic Tech, unlike Gov Tech, focuses on citizens as direct beneficiaries of the initiative. Citizenship and not operations or results are placed at the center of the conversation. It seeks to achieve commitment and sustainability with the communities, not necessarily achieving efficiency in decision-making. Some types can be the result of: Surveys or polls, questionnaires and voting, feedback, mapping (data visualization and analysis), information dissemination, rapid communication and co-creation.

TechCamp Chile Achievement Report

Mediators: Patricia Reyes, Doctor in Communication, Right to Information and Ethics; and Sebastian Rivas, Audience General Editor of the Copesa Group

TechCamp participants made various proposals to be implemented beyond the program to combat disinformation, such as starting collaborative work, seeking collective solutions and supporting advocacy in all aspects within civil society, academics, media of communication, etc., implement studies in multiple regions and countries with the purpose of finding solutions, similarities and differences to combat this problem. This must be done by creating a digital, responsible and ethical space.

On the other hand, it was proposed to carry out content analysis and studies on the effect of disinformation on the population, especially in socially validated media. “Info – intoxication” as a new concept to represent the excessive amount of information to which one is constantly exposed. Verify and verify the media in which one is being informed: where it is created, who creates it, to whom the information is directed and who ends up receiving the information.

Likewise, it was established as a proposal to improve the limited access that social sciences have to “big data” to obtain relevant information for the analysis of communication trends. This shows the abysmal asymmetry of power within civil society groups and large corporations.

One of the suggestions that most of the participants agreed with was to democratize science and technology through education and teaching in parallel with the punitive control measures that are being implemented on online platforms. Grant the necessary measures and tools to educate the population, evaluating the particularities of each community, promoting, from civil society, an approach to public information.

It was proposed to study access to information from a “multilayer” approach: access to technological equipment, access to education on how to use the different platforms, access to reliable information, being able to identify a source and reliable news, among others.

The participants suggested establishing participatory platforms in order to include historically excluded groups (women, indigenous peoples, rural populations, LGBTQ+ groups) and to do so in connection with civil society groups to facilitate communication and participation. Bring people closer to technological platforms that are used in citizen participation and decision-making events.

Holding the media responsible for the content and the negative exposure that disinformation has on the population, as well as the platforms used to disseminate information, was a proposal in which the participants agreed.

Analyzing gender violence in the media and social networks, in order to mitigate the negative effects it has on the participation of women in decision-making positions, was a relevant approach.

Another relevant proposal was to create platforms on how to prevent and combat disinformation, maintaining up-to-date information for the use of all the actors on this platform and providing tools for common use.

Likewise, generating more instances of conversation and discussion to educate the population about what disinformation is and the difference with misinformation, fake news, etc. so that they can be included in the analyzes and conversations, was recognized as a key measure to be implemented.

Regarding the democratic participation of women, it was proposed to include in all educational levels content related to how to prevent and combat disinformation, so that from an early age the population has the appropriate knowledge and tools to avoid the exclusion of women in decision-making processes and the subsequent democratic backsliding.

The importance of denormalizing disinformation within social media and at the same time preventing the spread of false news in the exercise of issuing opinions and informing was recognized.

The importance of recognizing our digital “backpack” or “footprint” was established, recognizing ourselves as digital natives, identifying how we are consuming and what we are producing and sharing in order to be able to understand the communication strategies that are behind disinformation and this paradigm anchored in the actual society.

Regarding disinformation, it was established that its axis should be identified, as a gender, political, social phenomenon, among others. A dogmatic analysis is needed to then begin to identify how to sanction them within the criminal sphere: which organizations are going to be involved, how we regulate it, how to repair the victims, etc. Also identify how we are going to include these issues to the institutional framework as a guarantor body within the constitution.

Finally, constantly updating the information on the new platforms that are emerging and on which you interact, encourages you to keep the processes and places where disinformation occurs up to date, in order to later have the tools to counteract them.

TechCamp Chile Exit Survey Report

At the end of TechCamp Chile, both participants and trainers were asked to answer an exit survey to evaluate the impact, challenges and achievements that this activity achieved in the fight against disinformation. This survey was implemented voluntarily, obtaining a total of 15 responses, 11 from participants and 4 from trainers.

The main challenge that came to the interior of the multiple organizations in which the members of TechCamp Chile belong, after the conferences and capacity building sessions, was the dimension of gender, technological education, access to information and participation of groups historically vulnerable.

“Make visible and generate awareness of how disinformation affects the daily life of society, but in particular, of women and dissidents who are the ones most affected by this phenomenon. […] Organizations of women and feminists, as well as journalists, activists and human rights defenders are at permanent risk, therefore, shared strategies to deal with disinformation are key. Today, access to information is vital for citizens and pato strengthen democracy.”

Based on these challenges to overcome, thanks to the enriching experiences and conversations of multiple members of society in this learning instance, they were asked what they consider to be the achievement of TechCamp Chile. To this, they responded about the learning they had from the multiple perspectives of society. From the media to the academy, from access to information to public participation, the ability to “become more aware of how disinformation impacts us, even in our daily lives, understanding some aspects of which I did not have as much information as the construction of narratives and phenomena of inequality in today’s world”.

They also valued the instance as a means to “learn perspectives, engage in dialogue, generate contact networks and obtain new information regarding this growing phenomenon”, emphasizing the importance of creating new instances of exchanging experiences on this phenomenon and creating a network that promotes these subjects.

Based on this, initiatives were recommended to be implemented after the first TechCamp Chile event

  • Extend the invitation to other areas of development.
  • Build a network of those who participated in the TechCamp and generate other instances of information/knowledge transfer that empower them in these matters.
  • Create a simple guide that provides basic and minimal information on how to deal with disinformation, a repository of good practices with tools and methods to combat disinformation and, finally, reflection and analysis sessions in electoral contexts and, in the case of Chile, with the constituent process.
  • Prepare a guide to implement in schools with basic notions on the subject in an accessible language for all ages.
  • Data analysis workshop to investigate disinformation processes.
  • Continuation of dialogue and conversations throughout Latin America, specifically with those who have an interest in strengthening its sociopolitical structure and promoting greater participation by its citizens.
  • Share experiences on the subject in other areas of the problem: development of more specialized capacities aimed at those who directly manage social networks and others for the programmatic part.




TechCamp resources

Techcamp chile PLATFORM

PUBLICATIONS

RESOURCES

CONTACT LIST

RESOURCES

TechCamp Chile Alumni Presentation
(Available in Spanish)

Evelyn Perez-Verdia - We are más, desinformación en instituciones (Available in Spanish)

Carla Dearing - Entrepeneurship and Civic Engagement


Tomás Martinez - Desinformación en Tiempos Electorales

Kristine Wilfore - Gender Disinformation & Implications for Democracy

María Laura Ruggiero - Herramientas de Storytelling Transmedia

OTROS PROYECTOS

TechCamp Contact list

Techcamp chile PLATFORM

PUBLICATIONS

RESOURCES

CONTACT LIST

TECHCAMP CHILE TRAINERS

UNITED STATES

Kristina Wilfore

Co-Founder #ShePersisted kristina@she-persisted.org

chile

Luiza Bandeira

Researcher and Editor at the Atlantic Council's Digital Forensics Research Laboratory. LBandeira@ATLANTICCOUNCIL.org

chile

Tomás Martínez

Director at Mala Espina Check tomas.martinezdelrio@gmail.com

uruguay

Elodie Martínez

AFP's Director of Digital Verification and Social Media for Latin America and Spain. Elodie.MARTINEZ@afp.com

braZil

Dalby Dienstbach

Researcher at Fundação Getulio Vargas dalby.hubert@fgv.br

braZil

Lucas Roberto Da Silva

Data Scientist at Fundação Getulio Vargas lucas.roberto@fgv.br

braZil

Heloisa Massaro

Advocacy Director at Derechos Digitales

Chile

Vladimir Garay

Advocacy Director at Derechos Digitales

chile

Patricia Reyes

PhD. in Communication, Information Law and Ethics from the Complutense Universidad de Madrid.

Chile

Sebastián Rivas

General Audience Editor at La Tercera. sebastian.rivas@latercera.com

Chile

Romina Garrido

Lawyer, Master in New Technologies Law, Universidad de Chile.

argentina

María Laura Ruggiero

Narrative Designer and Storyteller, SeirenFilms. mlaura@seirenfilms.com

czech republic

Katya Petrikevich

Co-founder and International Director at Participation Factory. katya@participationfactory.com

UNITED STATES

Carla Dearing

http://carlaformayor.org/ https://www.linkedin.com/in/carladearing/

United States

Betilde Muñoz-Pogossian

Director of the Department of Social Inclusion in the Organization of American States (OAS). bmunoz@oas.org

TECHCAMP CHILE ALUMNI

Chile

Patricio Carrasco

Extension Coordinator, Rimisp pcarrasco@rimisp.org

chile

Natacha Blazquez

Advisor, Governance and Territory Area, UNDP natacha.blazquez@undp.org

chile

Francisco Espinoza

Journalist, Electoral Service of Chile, fespinoza@servel.cl

chile

Camila González Harnau

Journalist, Mala Espina Check ccgonzalez2@uc.cl

CHILE

Carlos Carrasco

Sociologist, Council for Transparency carloscarrasco16@gmail.com

chile

Catalina Barrios

Fundación Newenko cbarriosbenavente@gmail.com

chile

Cristóbal Moreno

Journalist, Terram
cmorenos@ug.uchile.cl

CHILE

Diego Jofré

Journalist, Tenemos que Hablar de Chile diego@tenemosquehablardechile.cl

chile

Evelyn Vargas

Coordinator, Corporación Yo Mujer evelyn.vargas@corporacionyomujer.cl

chile

Evelyn Vicioso

Executive Director, Fundación Newenko evicioso@newenko.org

CHILE

Fabiola Gutiérrez

Journalist, Corporación Humanas fgutierrez@humanas.cl

chile

Gabriel Ortiz

Researcher, Fundación Espacio Público gabriel.ortiz@espaciopublico.cl

chile

Gabriela Maciel

Journalist, Constitutional Convention gabrielamacielsepulveda@gmail.com

CHILE

Guillermo Bustamante

Researcher, Universidad Finis Terrae gbustamante@uft.cl

chile

Julio Muñoz

Journalist, Constitutional Convention juliomunozf@gmail.com

chile

Luis Sandoval

Foreign Affairs Director, Comunidad Bahai luis.sandoval@bahai.cl

CHILE

Marcelo Santos

Researcher, Universidad Finis Terrae marcelolbsantos@gmail.com

chile

María Alejandra Larraín

President, Fundación Tribu alejandra@tribu.ong

chile

Anabel Campo

Lawyer, Council for Transparency anabel.campo@gmail.com

CHILE

Myriam Ruiz

Journalist, Universidad del Desarrollo.
mruiz@udd.cl

chile

Rodrigo Álvarez

Universidad Mayor rodrigo.alvarez@umayor.cl

chile

Tomás Lawrence

Executive Director, Fundación Interpreta tomas@interpreta.org​

CHILE

Valeria Machmar​

Journalist, Chile Transparente vmachmar@chiletransparente.cl

Guatemala

Christian Celada

Director,
Cmedia cmcelada@gmail.com

guatemala

Gloria Rojas

Social Coordinator, Asociación PASMO grojas@yahoo.com

argentina

Ignacio Botti

Fundación para la Democracia nacho.botti@hotmail.com

UNITED STATES

Julio May

Geographic Information Systems Specialist julio.may@illinois.gov

argentina

Lara Chiavarini

Fundación para la Democracia larachiavarini@democraciainternacional.org

guatemala

Marcos Rodas

Cyber Educadores, Asociación PASMO mrodas@pasmo.org

argentina

Rocío Berardo

Fundación para la Democracia rochi_berardo@hotmail.com

argentina

Susana Lungo

Executive Director, Asociación PASMO slungo@pasmo.org

perú

Valeria Mogollón

Communicator, OjoPúblico valeriamogollonc@gmail.com

Chile

María Pilar Uribe Silva

General Editor, Franca Magazine pilyuribe@gmail.com

TECHCAMP CHILE ORGANIZERS

chile

Paulina Ibarra

Executive Director, Fundación Multitudes. paulina.ibarra@fundacionmultitudes.org

chile

Jaime Ibarra

Advocacy Director, Fundación Multitudes. jaime.ibarra@fundacionmultitudes.org

PerÚ

Stephani Paliza

General Coordinator, Fundación Multitudes y Project Manager of TechCamp Chile. spaliza@fundacionmultitudes.org

chile

Ana Quijada

Research Director, Fundación Multitudes. aquijada@fundacionmultitudes.org

chile

Valeria Acuña

Social Anthropologist and Research Manager, Fundación Multitudes. vfacuna@fundacionmultitudes.org

chile

Lientur Alcaman

Native Peoples Program Advisor, Fundación Multitudes. lalcaman@fundacionmultitudes.org

argentina

Victoria Ferrieri

Educational Director, Fundación Multitudes vferrieri@fundacionmultitudes.org

Chile

Alejandra Corvalán

Digital Media Coordinator, Fundación Multitudes acorvalan@fundacionmultitudes.org

chile

Rodrigo Miranda

Media Manager, Fundación Multitudes comunicaciones@fundacionmultitudes.org

U.S EMBASSY CHILE

chile

Matt Keener

Press Officer. U.S Embassy Chile KeenerM@state.gov

U.S DEPARTMENT OF STATE

UNITED STATES

Manuel Pereira

Project Manager, Educational and Cultural Affairs (ECA) KeenerM@state.gov

OTROS PROYECTOS

Plataforma TechCamp Chile

PLATAFORMA techcamp chile

Año de desarrollo: 2021
Financiamiento: Embajada de Estados Unidos en Chile

PUBLICACIONES

RECURSOS

LISTA DE CONTACTOS

BIENVENIDO/A

En esta plataforma podrás acceder a todo el material referente a TechCamp Chile que se llevó a cabo entre los días 3 y 4 de diciembre del 2021. Encontrarás el material expuesto por las y los entrenadores, los reportes sobre las temáticas tratadas durante las jornadas y la lista de contactos con información de los y las participantes, entrenadores y organizadores. 

 

Acceso plataforma TechCamp

plataforma techcamp chile

Año de desarrollo: 2021
Financiamiento: Embajada de Estados Unidos en Chile 

OTROS PROYECTOS

TechCamp material de soporte

Plataforma Techcamp chile

PUBLICACIONES

MATERIAL DE SOPORTE

LISTA DE CONTACTOS

MATERIAL DE SOPORTE

TechCamp Chile Alumni Presentation

Evelyn Perez-Verdia - We are más, Desinformación en instituciones

Carla Dearing - Entrepeneurship and Civic Engagement


Tomás Martinez - Desinformación en Tiempos Electorales

Kristine Wilfore - Gender Disinformation & Implications for Democracy

María Laura Ruggiero - Herramientas de Storytelling Transmedia

OTROS PROYECTOS

TechCamp Platform

techcamp CHILE platform

Year: 2021
Funded by: U.S Embassy in Chile

PUBLICATIONS

RESOURCES

CONTACT LIST

WELCOME

On this platform you will be able to access all the materials related to TechCamp Chile that took place between December 3 and 4, 2021. You will find the material exposed by the trainers, the reports on the topics discussed during the conference and the contact list with information of the participants, trainers and organizers.

 

TechCamp reporte

Plataforma Techcamp chile

PUBLICACIONES

MATERIAL DE SOPORTE

LISTA DE CONTACTOS

TECHCAMP CHILE PARA COMBATIR EL IMPACTO DE LA DESINFORMACIÓN EN LOS PROCESOS ELECTORALES

Introducción

Chile tiene uno de los entornos digitales más prósperos de América Latina. Con el auge de las redes sociales, las noticias tradicionales, la radio y el streaming de canales populares, la población chilena consume ávidamente su información de forma digital. Sin embargo, la creciente amenaza de la desinformación no se ha metabolizado como conocimiento público al mismo ritmo. Combinando una escasa alfabetización mediática, niveles récord de contenidos y una transformación política histórica en Chile, ha llegado el momento de tomar medidas innovadoras sobre las cuestiones fundamentales que afectan a la democracia en la era digital.

En este contexto, Fundación Multitudes, en conjunto con el Departamento de Estado de Estados Unidos y la Embajada de Estados Unidos en Santiago, además de La Tercera como media partner, implementó el 2 y el 3 de diciembre de 2021 el TechCamp Chile para Combatir la Desinformación en los Procesos Electorales, como plataforma de lanzamiento para avanzar en los compromisos del Año de Acción de la Cumbre por la Democracia, con el objetivo de crear capacidades y generar concientización sobre el impacto de la desinformación en los procesos electorales, particularmente indagando en la violencia contra las mujeres en la vida política.

En concreto, el TechCamp Chile tuvo cuatro fines específicos: 

  1. Concienciar sobre la amenaza que suponen las fake news y la desinformación para los procesos electorales y la democracia;
  2. Realizar sesiones y programas de capacitación que permitan a los miembros de la sociedad civil, la academia, los medios de comunicación, los sectores de la tecnología y la ciencia de los datos, y los círculos políticos, identificar y combatir las campañas de desinformación y noticias falsas y mitigar sus efectos más negativos para la democracia;
  3. Llevar a cabo sesiones de intercambio de información entre miembros de diferentes sectores para abordar la naturaleza multidimensional de la desinformación y las noticias falsas;
  4. Defender activamente a los más vulnerables y afectados por las amenazas y ataques de las fake news y la desinformación en la política. En Chile, las mujeres, las comunidades de pueblos originarios, las comunidades LGBTQ+ y los jóvenes activistas en política son los más afectados por estos fenómenos de violencia digital. La normalización de estos fenómenos debe ser revertida, disminuida y prevenida.

Como resultado, durante dos intensas jornadas un total de 34 participantes procedentes de diferentes sectores de la sociedad fueron capacitados por 15 entrenadores sobre cómo combatir los efectos de la desinformación en los procesos electorales, especialmente cuando es utilizada como forma de violencia política de género.

Caracterización de participantes 

Caracterización de entrenadores

Como uno de los productos de este programa de desarrollo de capacidades, el presente documento busca presentar un breve resumen de las actividades realizadas en el marco del TechCamp Chile, además de un reporte de logros y análisis de la encuesta de salida a fin de visualizar los principales aprendizajes y resultados del programa.

Resumen del TechCamp Chile Día 1

Conferencia 1: Desinformación: Conceptos Clave y Descripción General de su Amenaza a la Democracia

Desinformación: Conceptos Clave Marcos Regulatorios en América latina. Vladimir Garay, Director de Incidencia de Derechos Digitales

La desinformación no es un fenómeno nuevo, ya desde el año 1600, incluso antes, se utilizaba como táctica de guerra. Asimismo, no existe un consenso respecto del impacto de la desinformación, ni una definición universalmente aceptada de lo que es, debido a la complejidad del fenómeno pues se relaciona con diversos aspectos de la vida democrática y se desarrolla de manera distinta en cada sociedad. 

En cuanto a marcos regulatorios, las prohibiciones generales a la difusión de la desinformación basadas en conceptos imprecisos y ambiguos se pueden convertir en un peligro para la libertad de expresión. Las restricciones a la libertad de expresión deben estar previstas en la ley, no pueden ser posteriores, se debe perseguir una finalidad legítima que esté reconocida por el derecho internacional y deben ser necesarias para alcanzar esa finalidad. 

En 1985, la Corte Interamericana de Derechos Humanos estableció que un sistema de control al derecho de expresión en aras de una garantía de la corrección y veracidad de la información viola el derecho a la información que tiene la sociedad. Sin embargo, ante la posibilidad de una información producida con “real malicia” la Relatoría Especial para la Libertad de Expresión establece que podría ser sancionada, pero como una actuación ulterior, y la Corte IDH establece un precedente en el Caso Ríos y otros vs. Venezuela al señalar que al pronunciarse sobre cuestiones de interés público las autoridades estatales deben constatar en forma razonable los hechos en los que se fundamentan sus opiniones con mayor diligencia que la empleada por los particulares. 

A nivel nacional, existen iniciativas legislativas en diversos países latinoamericanos relacionados con la difusión de información falsa, en el caso de Chile se encuentra el Proyecto de Ley de Regulación de Plataformas Digitales que incorpora la noción de “informaciones manifiestamente falsas”, concepto vago, y establece un estándar de responsabilidad objetiva y absoluta, cuestión draconiana que no existe en otras partes del mundo. 

Las soluciones a la desinformación no pueden ser solamente legales, es importante generar condiciones para que los distintos actores del sistema puedan operar mejor en el ecosistema de información.

Lecturas recomendadas: 

Alsur. (2019). Desinformación en Internet en contextos electorales de América Latina y el Caribe: Contribución regional de organizaciones de la sociedad civil ligadas a los Derechos Humanos en el entorno digital. Recuperado de: https://www.alsur.lat/sites/default/files/2020-04/Consulta%20p%C3%BAblica_%20Desinformaci%C3%B3n%20en%20contextos%20electorales_ContribucionRegional-AlSur.pdf

Corte Interamericana de Derechos Humanos. (2009). Caso Ríos y otros vs. Venezuela. Sentencia de 28 de enero de 2009 (Excepciones Preliminares, Fondo, Reparaciones y Costas). Recuperado de: https://www.corteidh.or.cr/docs/casos/articulos/seriec_194_esp.pdf

Faris, R.; Roberts, H.; Etling, B.; Bourassa, N.; Zuckerman, E. y Benkler, Y. (2017). Partisanship, Propaganda, and Disinformation: Online Media and the 2016 U.S. Presidential Election. Berkman Klein Center Research Publication 2017-6: https://ssrn.com/abstract=3019414

Sunstein, C. (2021). Liars: Falsehoods and Free Speech in an Age of Deception. Oxford Scholarship Online. https://oxford.universitypressscholarship.com/view/10.1093/oso/9780197545119.001.0001/oso-9780197545119

La Amenaza de la Desinformación para la Democracia: Ejemplos de Desinformación en Chile. Tomás Martínez, Fundador de Mala Espina Check

En cuanto a desinformaciones contra la Convención Constitucional, la presidenta Elisa Loncón ha sido blanco de estas desde el primer día, con puntos de viralización cuando ocurren situaciones contingentes. Por ejemplo, en el contexto de la instalación de la Convención surge una de las primeras campañas de desinformación con una supuesta fotografía de la presidenta saludando a Augusto Pinochet. En este tipo de campañas, además de desinformación, se entra en el terreno de discriminación a los pueblos originarios, violencia basada en género, ocurriendo una interseccionalidad de vulnerabilidades. Campañas sobre supuestos aguinaldos y vacaciones de inviernos, entre otros, buscan mellar el trabajo de la Convención Constitucional como institución y de algunas y algunos de sus miembros en específico.

En cuanto a las desinformaciones en campañas electorales, tienden a concentrarse en las y los candidatos que lideran las encuestas de preferencia. Sobre tipos, se ha observado que provienen de los candidatos (cifras o datos incorrectos), que afectan a otros candidatos, y pueden incidir en la decisión de los electores; se refieren a la decisión de ir o no a votar, algunos ejemplos son que las FF.AA. no van a custodiar los locales de votación (falso), o que el Servicio Electoral de Chile utiliza un software venezolano (falso), entre otros; y la difusión de información inexacta por parte de los candidatos y candidatas en sus discursos públicos, por ejemplo, Gabril Boric sobre el patrimonio de José Antonio Kast, o José Antonio Kats sobre los países que integran el Consejo de Seguridad de las Naciones Unidas.

La desinformación toma cabos sueltos de una situación verdadera, los manipula, y genera una narrativa que confunde a la ciudadanía. Memes y parodias también generan desinformación, por lo que es importante contrarrestar la narrativa que transmiten.

Desinformación en Procesos Electorales en América Latina. Elodie Martínez, Jefa de Fact-checking para América Latina y España de AFP

Agence France-Presse es la principal agencia mundial de Fact-Checking. En el 2017, AFP construyó la mayor red de fact-checking del mundo en el contexto de las elecciones presidenciales francesas. Desde Montevideo se coordina el equipo para América Latina y el Caribe, habiendo cubierto campañas electorales en todos los niveles y también campañas de censo, donde se ha observado desinformación para debilitar a las instituciones democráticas.

Algunos puntos a tratar sobre la desinformación en América Latina y el Caribe en contextos electorales son la desacreditación a candidatos y candidatas con afirmaciones infundadas; los debates utilizados como herramientas de desinformación; informaciones para insertar la desconfianza en el sistema electoral; y acusaciones de fraude electoral que alargan los procesos.

En cuanto a los candidatos, hay publicaciones que se difunden con un fin de humor, memes y parodias, que inducen al error a ciertas personas que no comprenden la narrativa; existen imágenes o videos que son sacados de contexto que generan dudas sobre candidatos.

Respecto al debate público, se utilizan estos escenarios para entregar información tendenciosa, simplificada, falsa, lo que retrasa  el proceso de verificación por la cantidad de cifras que publican los candidatos, y la necesidad de recurrir a fuentes confiables.

Sobre la confusión en torno al proceso electoral, la desinformación se enfoca en quiénes pueden participar, herramientas dudosas, estrategias que pueden invalidar sufragios, y medidas en el contexto del  Covid-19. Por ejemplo, que son dos jornadas electorales en lugar de una, la instalación del voto electrónico, etc.

En cuanto a las acusaciones de fraude, en la mayoría de los casos las situaciones dudosas tienen una explicación, pero a las personas que están convencidas de que existe fraude es muy difícil que sean convencidas racionalmente de lo contrario.

Fact-checking es proveer de elementos accesibles a toda la población para que cada uno pueda emitir su propia opinión y juicio.

Algunas medidas contra la desinformación son la enseñanza de herramientas a estudiantes y colegas periodistas, así como a los usuarios; verificar el discurso; establecer alianzas con medios, órganos electorales, organizaciones de la sociedad civil; y establecer alianzas con plataformas en las que circula la desinformación.

Sesiones de Desarrollo de Capacidades 1

Generando Impacto a través de los Negocios y la Política. Carla Dearing, Partner de Velo Group LLC

Un modelo de emprendimiento es recolectar recursos y habilidades antes de iniciar, luego encontrar un aliado estratégico para que continúe con el proceso. Algunos recursos y habilidades que tener antes de iniciar las iniciativas son:

  • Relacionado a lo personal: Corporativo; ventas y marketing, servicio al cliente y otras habilidades personales (25% del componente).
  • Relacionado a las ventas: Auspiciadores, conferencias y promociones.
  • Relacionados al marketing: Anuncios en redes sociales/Embajadores; producción de videos/fotografía; relaciones con la prensa; contenido de blogs; y diseño y materiales.
  • Relacionado a la tecnología: Hosting + infraestructura; apps móviles y desarrollo de páginas web; y sitio web corporativo.
  • Otros recursos: Recursos de oficina y servicios profesionales.

Si bien las barreras para el desarrollo de aplicaciones móviles se han reducido en los últimos años, pues se puede codificar una aplicación simple en un solo fin de semana, hoy en día para que un emprendimiento relacionado a la tecnología tenga éxito, se debe reunir los recursos mencionados anteriormente.

Cinco verdades aprendidas:

  1. Hacer el cambio requiere mucho dinero sobre todo en #FinTech;
  2. Las buenas intenciones (y una buena marca) no son suficientes. El modelo de negocio debe funcionar;
  3. Las únicas personas que acceden a capital antes de obtener ganancias son aquellas con acceso especial, usualmente no son personas de comunidades vulnerables. Se debe ser más inteligente;
  4. Se puede usar tecnología para hacer todas las cosas pequeñas de forma adecuada a un costo de capital bajo;
  5. La excelencia atrae todo el talento, socios y clientes que uno necesita para el éxito.

Estas verdades que se identifican en el mundo de los emprendimientos se pueden aplicar a la estructura del poder en los asuntos públicos, sobre todo para involucrar las voces de las comunidades que usualmente no son representadas, como las mujeres.

Las mujeres cuando deciden involucrarse en la vida pública deben tomar la decisión de verse expuestas a ataques contra su vida pública y privada. La posibilidad de que sean elegidas como autoridades es objeto de conversación en torno a su identidad de género y no su capacidad para ejercer la función pública.

No hay una forma fácil de participar en procesos de decisión cuando se es mujer, así que es mejor involucrarse desde el inicio. La recomendación es comenzar 1) encontrando aliados (las personas correctas que brinden apoyo, crean en la misión, entiendan la dificultad de participar en política siendo mujer) y 2) reuniendo los recursos mencionados anteriormente. Iniciar una campaña política es similar a iniciar un negocio. 

Silenciar a las mujeres es una forma de violencia, incluyendo las situaciones cuando una mujer se cuestiona si puede ser una lideresa por miedo a ser agredida.

Una estrategia a emplear para hacer frente a los ataques en las redes sociales contra mujeres que participan en política es tener un equipo que monitorea las diferentes plataformas para identificar potenciales campañas de desinformación en su contra. La desinformación es una de las razones por las cuales las mujeres deciden no participar en política

Herramientas de Storytelling Transmedia. María Laura Ruggiero, Diseñadora Narrativa y Storyteller, SeirenFilms

En el storytelling, tradicionalmente las historias tienen inicio, nudo y desenlace. Eso sigue funcionando, pero en el mundo digital se aplica en capas. Hoy surgen términos que apuntan a generar experiencias; el contenido y la plataforma; la atención como el bien más preciado; y la interacción que hace que la historia deje de ser lineal. 

El storytelling digital tiene dos lados, el contenido como snack y la experiencia inmersiva. En el primer caso, el contenido se considera un snack, algo que se consume mientras se realizan otras cosas, es decir, un consumo rápido y corto que abre el apetito. 

En el segundo caso, existen formas de crear lo inmeservio sin utilizar un dispositivo, como ocurre con series y películas donde se pierde la noción del espacio-tiempo. Esto depende de la audiencia y los usuarios, entendiéndose de actores diferentes pues, los primeros son pasivos mientras que los segundos tienen la posibilidad de interactuar.

Transmedia es storytelling basada en la audiencia, genera idea de descubrimiento, se refiere tanto a un sistema como a la forma de regular el ritmo dentro de este. Implica recorrer distintos espacios digitales para comprender la historia. Los transmedia como un sistema implica contar historias, participación de las audiencias, multiplataformas (al menos dos espacios), conexiones entre contenidos (estos se deben entender como un todo e individualmente), expansivo y gratuito.

Hay conexión fuerte entre los usuarios y la tecnología. Se debe entender a los usuarios y quiénes van a estar inmersos en la historia. La inmersión es una construcción, no es algo que se dé automáticamente, es un diseño de elementos sensoriales, de información e interacción que hace que la persona sienta que está atrapada en una historia.

El contenido inmersivo que requieren de una plataforma tecnológica, se dividen en tres formados: VR para realidad virtual (creado completamente donde uno puede moverse por el espacio), Video 360 (cámaras que registran el espacio en 360) y AR para realidad aumentada (realidad mediada a través de una cámara).

En lo inmersivo hay organización de un sistema, donde se debe entender cómo cada elemento interactúa: usuario, dinámica e historia. En base a las características del usuario se define la dinámica para transmitir la historia. Pensar desde usuarios, desde las historias y desde las dinámicas. Por ejemplo, para usuarios con poco acceso a internet la mejor forma de llegar a ellos con un contenido de activismo puede ser mediante podcasts cortos.  

Cualquier plataforma tecnológica puede ser utilizada para contar historias. Tenemos la posibilidad de generar algo inmersivo, entendiendo a los usuarios, y contar una historia diferente (por ejemplo, utilizar un videojuego para hacer activismo).

Siempre que se habla de storytelling, especialmente inmersivo, hay viaje emocional y una estructura que incluye la interacción que debe estar preparada para responder a lo imprevisto.

Impacto del Tratamiento de Datos Personales en la Difusión de Información en Campañas Políticas. Romina Garrido, Magíster en Derecho de las Nuevas Tecnologías, Universidad de Chile.

La privacidad de los datos es una herramienta útil para llegar al público adecuado, transmitir un mensaje de la mejor manera y conocer quiénes son los destinatarios finales. La privacidad se comienza a ver como un derecho colectivo cuando son datos en decisiones que afectan a todo una comunidad. 

Datos masivos, pueden venir de distintas fuentes como el pensamiento, lo que se comparte en redes sociales, de las reacciones a publicaciones, de los dispositivos que utilizamos, geolocalización, etc. El ser humano es el mayor creador de datos y los datos se generan a cada minuto. 

Tradicionalmente se dice que los datos son el nuevo petróleo, pero ello es un mito porque si los datos se llegan a perder es difícil poder reemplazarlos por otros. Los datos son caracterizadores únicos de las personas.

Lo que se hace con los datos es analítica descriptiva y analítica prescriptiva. Ambos dependen de conjuntos masivos de datos agregados, la diferencia está en los que se hace con estos. En la primera, se toman los datos agregados y luego se utilizan modelos estadísticos para pronosticar o predecir el comportamiento futuro; y en el segundo caso, se toma los datos agregados y luego los alimenta al aprendizaje automático de algoritmos para formar una imagen de la identidad de la persona. 

En el tratamiento masivo de datos, la elaboración de perfiles es una forma de tratamiento automatizado de datos personales que consiste en utilizar estos para determinar aspectos de alguien: evaluar o analizar aspectos relativos al rendimiento profesional, situación económica, de salud, preferencias personales, intereses, fiabilidad, comportamiento, ubicación o movimiento. Las técnicas que se utilizan para ello, por ejemplo, es microtargeting, micro focalización es español, que consiste en la gestión de grandes cantidades de datos, en los cuales se busca patrones comunes mediante criterios de selección que consideran inclinaciones, intereses, preocupaciones, situación socioeconómica, nivel educacional, franja etaria, etc., con el objetivo de crear segmentación del conjunto total. 

El Caso Cambridge Analytica ejemplifica de mejor manera el impacto del tratamiento de datos en campañas políticas. El análisis se puede hacer desde 3 aristas. 

La primera es la investigación académica y comercial. En el 2012 un profesor ruso se une al Pyschometrics Centre de la Universidad de Cambridge, quien desarrolló un test de personalidad para fines académicos, además este profesor tenía su propia empresa denominada Global Science Research, siendo uno de sus clientes SFL, matriz de Cambridge Analytica. El test “My Personality” después fue llevado por el investigador a su empresa y se denominó “This is my digital life”. El test, contestado por 270 mil personas aproximadamente, evaluaba 5 tipos de personalidad: apertura a la experiencia, escrupulosidad, extraversión, amabilidad y neuroticismo. Cuando explota el caso, se evidencia la delgada línea entre la investigación académica y la investigación comercial. 

La segunda arista es Cambridge Analytica como una consultora política. Se presenta como especialista en recolección y análisis de datos para campañas publicitarias y políticas. Está acusada de obtener datos de personas desde Facebook, en contra de las condiciones de seguridad de la plataforma, para encuadrar a las personas en base a los tipos de personalidad y enviar mensajes políticos personalizados para influir en su decisión. Como consultora, Cambridge Analytica elaboró una herramienta para elaborar perfiles psicográficos en base a datos que provenía de más de 5 mil puntos de recopilación, entre ellos Facebook.

La tercera arista es Facebook como modelo de negocios. Los datos de los usuarios son el producto que se ofrece a las compañías de publicidad. Hasta el 2015 el API de Facebook permitia un respaldo de datos, entonces cuando los usuarios contestaron el test de personalidad, además de aceptar el tratamiento de sus datos estaban dando autorización para acceder a los datos de sus contactos, lo que hace que de las 270 mil personas que respondieron la encuesta, el número de usuarios afectados llega a 87 millones, de quienes Cambridge Analytica tuvo acceso infringiendo los términos y condiciones de Facebook mas no las herramientas tecnológicas que la compañía disponía. Cambridge Analytica vendía la segmentación de perfiles para la difusión de las campañas políticas llegando con mensajes efectivos a cada audiencia. 

Relacionado a la desinformación en procesos electorales, el procesamiento de datos permite elaborar burbujas de desinformación de acuerdo al tipo de personas, lo cual puede alterar su intención de decisión.

Taller 1: Herramientas y Estrategias para el Monitoreo del Debate Público en las Redes Sociales. Dalby Dienstbach & Lucas Roberto Da Silva, Fundação Getulio Vargas

En el caso de herramientas gratuitas para analizar y recolectar datos en las principales plataformas sociales, existen instrumentos para Facebook, Twitter, WhatsApp y YouTube (es del caso señalar que también existen herramientas para nuevas plataformas como TikTok): Crowdtangle (la mejor forma de obtener datos de Facebook), Orange, Socialblade, Gephi (para construir gráficos) y DMI Tools (da acceso a datos de diversas fuentes como Wikipedia, YouTube, etc). Si se es un investigador independiente y/o no se tiene habilidades de programación es recomendable utilizar Orange, DMI Tools y Gephi, para realizar el monitoreo del debate sobretodo en Twitter, si se quiere profundizar en la investigación y emplear nuevas metodologías se requiere utilizar Pyton para tener más control de lo que sucede.

Respecto a Facebook, no tiene API (Application Programming Interface), acceso a la data que las compañías de redes sociales otorgan sin tener que reservar en la propia base de datos de los investigadores. Facebook deshabilitó esta opción después del escándalo de Cambridge Analytica, ahora otorgan acceso a sus datos solo a los investigadores que utilizan la herramienta Crowdtangle, lo que requiere que la institución sea aprobada (puede tomar de 2 días a 1 semana aproximadamente). Crowdtangle también da acceso a data de Reddit e Instagram, en el caso de Facebook no da data de los comentarios.  

Para el caso de Twitter, el acceso a los datos es mucho más abierto, se tiene acceso a data histórica y data en tiempo real, pero estos tienen límites, por ejemplo, con el nuevo API que vienen desarrollando, API V2, solo se tiene acceso a 500.000 tweets al mes; igualmente, se debe aplicar para tener acceso. 

En el caso de YouTube es diferente, el API usa diferentes cuotas para dar acceso a datos. Existen algunas herramientas gratuitas, pero la aplicación al permiso es revisada de manera automática, se puede desarrollar herramientas propias, pero dan bajos niveles en los primeros momentos, te pueden revocar el acceso si creen que la investigación no es valiosa para el público y/o la plataforma.

WhatsApp no tiene API, no hay forma de acceder a los datos de manera oficial. En esta plataforma hay cuestiones éticas porque se puede tener acceso a datos de usuarios que no saben que su información está siendo usada en una investigación, siendo este aspecto el más complejo del proceso investigativo. 

En cuanto a herramientas pagas se debe considerar el alcance que ofrecen en las redes sociales (la mayoría ofrece Twitter, Facebook e Instagram), el volumen de los datos y las posibilidades de exportarlos (algunos tienen límites), el acceso a data histórica y capacidades analíticas.

En cuanto al diseño de la investigación, es un paso que se debe tomar antes de recolectar los datos. Los pasos son 1) Definir el tema, 2) Explorar discursos en cursos, 3) Identificar estrategias, 4) Escribir la pregunta de investigación (“query”), 5) Validar la pregunta de investigación, 6) Implementar la pregunta de investigación.

En el primer paso, se define qué es lo que se debe buscar al monitorear, para lo cual se construyen preguntas de investigación, hipótesis, objetivos, etc. Los temas pueden ser eventos (p.e. elecciones); temáticas (p.e. debates de discursos de odio en internet), actores (p.e. candidatos, activistas, autoridades, compañías, instituciones estatales, etc.). A veces se debe incluir en el diseño una categoría de tres, y cada uno puede llevar a tópicos superiores y subtópicos que también deben ser analizados.

El segundo paso consiste en explorar el discurso en torno al tema elegido, es decir que se ha  estado diciendo en cuanto a este. Debemos enfocarnos en “dónde” están teniendo lugar estos discursos y “quién” los acoge. Normalmente se busca páginas en internet, como páginas web de instituciones, redes sociales como páginas de Facebook, plataformas de medios de comunicación.

El tercer paso consiste en identificar estratégias de discurso lingüístico. Se enfoca en qué forma tienen los discursos: “qué” se dice y “cómo” se dice lo referente al tema. Se deben tomar decisiones lingüísticas, por ejemplo, utilizar palabras, frases, nombres propios, jergas, hashtags, cuentas, etc. Se debe considerar las variaciones que pueden emplear los usuarios y potenciales errores de escritura.

El cuarto paso consiste en escribir el query, que es una sintaxis, elemento lingüístico de la investigación. El propósito es  transferir las estrategias de discurso lingüístico en sintaxis que habilitarán el acceso a la información. Se combinan palabras de búsqueda con operadores logísticos como “and”, “or”, “not”, éstos representan la relación entre dos términos. Al construir la sintaxis se deben considerar principios morfológicos, léxicos y semánticos, además de variaciones y otros aspectos lingüísticos; además de el momento del discurso y el momento de recolección de datos.

El quinto paso se trata de validar el query, consiste en emplear distintas herramientas para comprobar que se cumplen con el objetivo de investigación, verificar que no se ha ignorado alguna palabra, hashtag, etc., además de identificar data superflua, que no es relevante para la investigación, para pensar en incluir o excluir conectores lógicos. El query sirve tanto para recolectar datos como clasificarlos.

El último paso es implementar el query para recolectar y/o clasificar los datos utilizando distintas herramientas, sean pagas o gratuitas.

Lecturas recomendadas

Department of Public Policy Analysis of Fundação Getulio Vargas. (2021). Hate Speech in Digital Environments. Recuperado de: https://democraciadigital.dapp.fgv.br/wp-content/uploads/2021/03/EN-Estudo-3-I-Discurso-de-Odio-Ficha-e-ISBN.pdf

Resumen del TechCamp Chile Día 2

Conferencia 2: La Desinformación como Intersección entre la Erosión de las Instituciones Democráticas y la Baja Participación de la Mujer en los Procesos Electorales. Kristina Wilfore, Co-fundadora de #ShePersisted

En los últimos años, se ha observado una evolución en los ataques que las mujeres en política reciben, silencian a mujeres activistas y utilizan la tecnología como armas para minar la democracia socavando a las mujeres. Se ha recopilado información sobre testimonios de mujeres políticas que han reportado ataques para socavar sus agendas públicas a lo largo de la Unión Europea y parlamentos alrededor del mundo, donde la desinformación juega un rol principal.

Pero las amenazas que las mujeres enfrentan en línea combinan múltiples aristas: por un lado, tienes el sexismo y misoginia que desafortunadamente se normaliza en redes sociales, esto además se combina con violencia online, amenazas, discursos de odio e intimidaciones. Asimismo, en este último tiempo se ha ido incrementando la desinformación, donde tienen actividad artificial y una “armamentización” de esta en los ataques. Así, podemos decir que la desinformación de género tiene estas tres aristas que actúan de manera simultánea.

La investigación que ha estado efectuando #ShePersisted muestra que hay ciertas características únicas que las mujeres han experimentado por el hecho de ser mujeres en política. Los primeros parámetros se denominan como “sesgos de liderazgo”, las cuales toman cuatro áreas que insinúan que las mujeres son indignas de confianza; incompetentes o sin la cualificación necesaria; antipáticas o que no agradan para el cargo; e incontrolables o erráticas. Esto a su vez se posiciona en conjunto con los ataques sexualizados, en donde sólo la imagen de las mujeres se transforma en un “meme”, ocasionando acusaciones gráficas y en el cual se acusa a las mujeres de ocupar su sexualidad y ofrecer actos sexuales para acceder a cargos de poder. En comparación con los estudios efectuados a hombres que postulan a los mismos cargos públicos, se evidencia que los ataques en contra de mujeres están mayormente enfocados en el carácter de la persona y hay menor probabilidad que se incluyan hechos.

Para empezar a analizar este fenómeno se debe ir a la base de la discriminación y sesgo que afecta a las mujeres en política, tanto online como offline, específicamente en cómo caracterizamos a las mujeres en comparación con los hombres. Los tipos de nombres y/o adjetivos que utilizamos para describir a las mujeres, no son los mismos que utilizamos para describir a los hombres y en algunos casos las mismas actitudes se caracterizan de forma opuesta. Por ejemplo, que una mujer “sobre opine” de un tema o contenido, en un hombre puede ser caracterizado como “conocedor” o “apasionado”. En estos ejemplos es donde empiezan las diferenciaciones y sesgos que se han vuelto aún más perjudiciales con la nueva tecnología existente.

Existen varias aristas de análisis en las que podemos ver que la nueva tecnología está facilitando la “armamentización” de estos ataques. Hay una relación con la tecnología que tiene como objetivo silenciar a las mujeres con la finalidad de erosionar la democracia. El género es el tópico favorito de líderes autoritarios y actores de la sociedad que buscan retroceder el progreso efectuado por grupos organizados de mujeres y grupos minoritarios que los hacen responsables de representarlos y los acusan de corrupción.

Hay que prestar una atención especial a las plataformas digitales y los algoritmos que facilitan, premian y amplifican los discursos de odio para ganar recursos y dinero, por lo que no se pueden dejar fuera de la ecuación. Esto se evidencia con las últimas fugas de información privada en Facebook, cuando la ex empleada de esta plataforma Frances Haugen expuso que la plataforma contiene reglas especiales para “clientes VIP”, un ejemplo de esto es el caso del jugador de fútbol brasileño Neymar quien tiene 150 millones de seguidores en Instagram y quien fue acusado de violación el año 2019. Luego de lo ocurrido el jugador subió a sus historias de Instagram las conversaciones y mensajes privados (junto a fotos íntimas de la víctima) defendiéndose y “probando” su inocencia. La política de Facebook para lidiar con publicaciones que contengan “imágenes íntimas sin consentimiento” es de borrar inmediatamente la publicación, pero en el caso del futbolista este fue protegido por XCheck, por ser una cuenta con muchos seguidores.

Por otra parte, la periodista María Ressa ganadora del Premio Nobel de la Paz, ha sido víctima de ataques de odio en donde el lenguaje ha formado nuevos términos para clasificar. “Presstitute”, un juego de palabras entre prostituta y prensa en inglés, se ha ocupado para devaluar tanto su persona como su trabajo de reportera en formas misóginas y racistas.

Casos de estudio. Ejemplos.

En Brasil, una candidata opositora a Jair Bolsonaro, afrodescendiente quien fue asesinada, siguió siendo víctima de desinformación y fakenews después de su muerte y esta fue en aumento, ya que empezaron a nacer noticias que la asociaban a la prostitución, narcotráfico y drogas. Estas noticias justificaban su muerte a través de estas asociaciones y culpaban a su supuesto comportamiento personal como motivo de su muerte, en vez de considerar a su actividad política. 

En Italia, Laura Boldrini enfrenta constantemente intimidaciones, amenazas de violación y muerte. Ha intentado contactar directamente con Facebook para que la plataforma interfiera y elimine incluso publicaciones dentro de sus redes sociales para detener este fenómeno. Estas amenazas continúan en su página de Facebook y esta plataforma no ha interferido en los discursos de odio que recibe constantemente. 

En #ShePersisted se hizo el trabajo de documentar las experiencias de estas mujeres en redes sociales, donde se observó a la desinformación como un fenómeno común.

Asimismo, se ha creado una atmósfera y aproximación muy sexista. “Deep Fakes” o “ultrafalso”, siendo esta una noticia falsa que ha utilizado mecanismos tecnológicos para hacerla parecer como verdadera, es empleado en su mayoría como un mecanismo para atacar a las mujeres, ya que el 90% de todos los deepfakes que están circulando tienen como principales protagonistas a mujeres en escenarios de pornografía no consensuada. La candidata como canciller alemana Annalena Baerbock sufrió un episodio en el cual se filtró una foto en donde ella, supuestamente, salía mostrando los senos de la cual luego se comprobó era falsa. Esto afectó directamente su candidatura desde un inicio y se especulaba que ella no estaba capacitada para el puesto, teniendo 5 veces más fake news que el resto de sus contrincantes.

En Canadá, la ex ministra de medioambiente fue comparada a una “Barbie del medioambiente”, utilizando esta foto para suprimir sus esfuerzos y agenda hacia una energía limpia. Esto hizo que escalara la amenaza en su contra, asignándole mayor seguridad por riesgo de violencia.

Por otro lado, la convención de Estambul, proyecto legislativo para la protección contra la violencia contra las mujeres, se transformó en un evento controversial cuando grupos políticos de Hungría y Polonia comenzaron a cambiar la narrativa para atacar a activistas de derechos de las mujeres y desprestigiando el instrumento especulando que era parte de una agenda de minorías sexuales. Estos grupos están reescribiendo incluso la manera en que se habla de género.

Consejos de comunicación y estrategias de construcción de coaliciones contra la desinformación.

  1. Nunca masificar una afirmación falsa. Esta regla es muy difícil de aplicar ya que, para adquirir conciencia del fenómeno, al mismo tiempo se deben mostrar estas noticias para evidenciar cuáles son sus componentes. El simple hecho de mostrar estas noticias perjudica la percepción de la población sobre las mujeres y sus habilidades de liderazgo. Se debe aprender a cómo desviar la atención de estas noticias: cada me gusta, comentario y noticia compartida programa al algoritmo para mostrárselo a una mayor cantidad de personas. Hay que incidir e incentivar a que se masifique noticias verdaderas y pertinentes incluso cuando se quiere denunciar una noticia falsa.
  2. Evaluar qué tipo de información es la que se está propagando y el impacto que esta pueda tener. ¿Son personas reales quienes están viéndolo?, ¿Afectará directamente a los votos, reputación, apoyo, discurso, entre otros? ¿Me afectará a mediano o largo tiempo?, ¿Quiénes son los actores?, etc. Estos factores se deben categorizar y se debe redirigir la conversación de forma positiva sobre los logros y planes que determinada mujer en política pueda tener.
  3. Enfocarse en qué es lo que puedes controlar en estas plataformas y noticias. Cada usuario debe desarrollar una estrategia dentro de sus redes sociales. Compartir noticias que estén en concordancia con los principios, de forma positiva y que sean verificadas.
  4. Construir una comunidad que apoye y amplifique las noticias verificadas. Ayudar a activistas a construir plataformas que promuevan estos principios compartiéndolos en línea directa con sus centros de información y agendas, empoderandonos a que continúen promoviendo estos valores.
  5. Denunciar el sexismo en las redes sociales es importante para cambiar la percepción que las personas tienen alrededor de este tema. Ignorar este asunto no logra resolver la problemática, normalizando conductas que deben ser dirigidas como figura pública y política hacia sus votantes. Ser auténtica y enfatizar la severidad de la problemática y el por qué es dañino para la democracia sí resuelve el problema.
  6. Hacer responsable a las plataformas de redes sociales y plataformas digitales de otorgar el medio para estos discursos de odio y desinformación.

Sesiones de Desarrollo de Capacidades 2

Rol de las Autoridades de Datos Personales en la Difusión de Información en los Medios de Comunicación. Romina Garrido, Abogada Magíster en Derecho de las Nuevas Tecnología, Universidad de Chile

Hay un principio de control de protección de datos personales, donde se evidencian tipos de control: Control externo, Control propio, Autocontrol o control interno, y Autorregulación. 

En el control externo o la autoridad de supervisión se encuentran los organismos públicos que supervisan la aplicación de la ley de protección de datos, garantizando los derechos de las personas, fiscalizando, sancionando o instando a cumplir con la ley. 

Hay una primera generación de derechos que se refieren a quiénes tienen acceso a los datos y para qué se usan, y cómo se puede oponer a cierto tratamiento. En  este conjunto está el Derecho de acceso, Derecho de rectificación, Derecho de cancelación y el Derecho a la oposición.

Estos nuevos derechos, tensionan el derecho de expresión y la honra (y al olvido). Se produce el enfrentamiento entre la protección de datos versus la libertad de expresión, enmarcado en los siguientes derechos: Derecho a la honra, Derecho a la propia familia y Derecho a la privacidad. 

En Chile la ley prevé un tratamiento de datos de forma libre, pero está a su vez tiene sus límites. El Internet va haciendo que estos límites, fijados en la ley, tengan ciertos matices, como por ejemplo, cuánto tiempo debe estar en línea. Es necesario que se fijen criterios de protección para que la información que se difunda no afecte la honra de las personas, ni su privacidad, ya que no es lo mismo opinar que informar.

La información falsa, pero obtenida diligentemente es información lícita. Puede no justificar de dónde se obtiene y se debe rectificar en el futuro. La información errónea, no contrastada, es información ilícita y ningún tipo de información lícita ampara vejaciones o actos insultantes. 

Algunas reglas para el periodismo que contiene datos personales ponderan la relevancia pública de los datos personales y consideran a las personas afectadas por el hecho noticiable. El uso de internet nos obliga a pensar en nuevos límites, pensar en la privacidad de las personas, que los datos personales se presenten en los medios de comunicación aporten a los hechos, no que se difundan por otras razones. 

Cuando hablamos de la información que publicamos en redes sociales u otras plataformas de internet debemos entender que esa información se mantiene dentro de este medio. La actualización y divulgación exponencial de la información es buena para el derecho a la información, pero son prácticas directamente proporcionales a la privacidad de las personas y los daños que se pueden generar. Es por eso que es importante reflexionar sobre la trascendencia que tiene mantener de manera permanente la información en línea. 

Derecho al olvido

Tenemos derecho a oponernos al derecho de usar información pasada cuando afecta la reputación, es anacrónica, afecta la honra, es redundante, es irrelevante y a fin que no se obstaculice la percepción actual de la persona. 

Gracias al derecho al olvido podemos poner en supresión los datos en internet bajo estas condiciones y se pretende rehacer la imagen que los demás tienen de la persona cuando ciertos hechos en internet los perjudican. Los requisitos y parámetros para aplicar al derecho al olvido y/o borrar nuestra información personal en línea son que esta Información sea lícita y/o cierta, que afecte directamente a la persona, que ya ha trascendido un tiempo razonable, que su afectación sea desproporcionada y que no tenga relevancia histórica.

Actores en la gestión del derecho al olvido son:

  1. Titular: afectado por la información; 
  2. Quién gestiona el contenido: difunde la información;
  3. Motor de búsqueda: nos facilita el acceso a la información;
  4. Internauta: quienes quieren acceder a la información. 

En Europa es diferente la regulación del derecho al olvido en relación con los buscadores, en esta se regulan motores de búsqueda que lucran con la actividad de mostrar información. Consideran que los buscadores no hacen todo automático, ya que personalizan el contenido y ofrecen espacios pagados donde una información circula antes que otra. En Latinoamérica los buscadores no son responsables, ya que están basados en la mera trasmisión y no se responsabiliza por lo que se publica.  

El derecho al olvido no es nuevo, pero se debe plantear desde los derechos digitales. Como sociedad se tiene la necesidad de reflexionar sobre la mochila digital y entender que somos responsables de lo que publicamos en internet. Por ello hay que realizar las siguientes preguntas para replantear la problemática:

  • ¿Se tiene derecho a dejar atrás aspectos de nuestra vida? 
  • ¿Qué pasa con la información que está permanentemente en internet? 
  • ¿Se conoce la limitación que hay para el trato que hacen los medios de comunicación para emitir información? 
  • ¿Cuándo hay conflicto entre la libertad de información, la honra y la privacidad? 

Presentación de casos icónicos relacionados con esta temática. Sobre el uso de datos personales por la prensa, Canal 13 transmitió el crimen de Nabila Rifo. Crimen de género en una ciudad del sur de Chile. Durante las investigaciones se leyó el informe ginecológico en televisión. Ello se cuestionó ya que existía un afán informativo en presentar esta información pero esta es de carácter confidencial y médico. Por otro lado, sobre el derecho al olvido, caso Herval Abreu por acoso sexual y  Abbot por corrupción.

Consejos finales:

  • Lo que se pone en internet es un patrimonio propio y se debe ser capaz de fijar límites propios;
  • Tener límites del tipo de información que se va a compartir. Por ejemplo: quiénes aparecen, qué dicen, por qué se está compartiendo, etc;
  • Detrás de las plataformas, hay un modelo de negocios que es perverso e inentendible, y que busca los datos para seguir funcionando y vendiendo;
  • Hay mucho que regular en términos de plataformas. Se debe ser capaz de establecer normas de autocuidado e higiene digital;
  • Se debe dejar una huella digital responsable, asegurando que cada uno tenga el control de la información al momento de compartirla;
  • Las plataformas deben poner más atención y brindarnos servicios de este tipo; 
  • Pensar en las nuevas formas de borrado de información y cómo frenar el acceso directo y público a esta;
  • Se debe ser consciente de las repercusiones del contenido en el internet. 

Estrategias de la Academia para Combatir la Desinformación. Patricia Reyes, Doctora en Comunicación, Derecho a la Información y Ética

El derecho a la información es un derecho inherente, indisoluble e inseparable a la condición humana, reconocido con carácter universal en la Declaración Universal de Derechos Humanos y otros documentos. 

Derecho a investigar, recibir y difundir todo tipo de informaciones y opiniones, así como a no hacerlo. La facultad de recibir información comporta la posibilidad para todo individuo de recibir u obtener información, sin restricciones, trabas u objeciones justificadas. Para Desanter Guanter, este derecho exige condiciones: “la información que reciba debe ser veraz, completa, oportuna y asequible por igual a todos”.

Herramientas

  • Desarrollo del pensamiento crítico y fomento de la curiosidad intelectual y el acceso al conocimiento. Conciencia de validar las fuentes de información, revisar y ver su veracidad como sus fuentes de información.
  • Formación de habilidades informacionales: Saber cuándo y por qué necesitan información, dónde encontrarla, cómo evaluarla, utilizarla y comunicar de manera ética, como también existe un analfabetismo informacional, en donde se deben crear capacitaciones sobre el uso de estas plataformas: para qué utilizarla y cómo utilizarla.
  • Formación en Derechos Humanos: Igualdad, libertad de expresión, privacidad y honra, derecho de acceso a la información pública y protección de datos personales. 
  • Unidades de género, igualdad y diversidad: establecer protocolos para la denuncia de la violencia y “desmasculinizar” la academia en el posicionamiento de mujeres académicas en la conversación (por ejemplo, plataforma UV Mujeres).
  • Actitud proactiva en el combate a la desinformación: Posición crítica frente a los hechos de desinformación y defensa de derechos que se ven afectados especialmente a grupos históricamente vulnerables. Este trabajo se traduce en una participación en redes. No se puede invisibilizar los estudios académicos.

Ejemplos

  1. Construcción de protocolos dentro de las universidad para lidiar con el problema de la desinformación dentro del grupo académico. La relación puede estar sujeta a una asimetría de la cual se debe tener conocimiento y actuar sobre ella al momento de evaluar las relaciones entre estudiantes, docentes y trabajadores. Funciona en la Universidad de Valparaíso como una denuncia que es evaluada por una comisión técnica que evalúa la veracidad para luego aplicar medidas administrativas y el curso de una investigación en conjunto a medidas de acompañamiento.
  2. Preocupación y acción en contra de la desinformación, defensa de actos violentos, racistas, etc. Se debe tener una acción consciente en estas materias, cambiar la narrativa respecto al rol que cumplen, por ejemplo, las cátedras de género en la universidad.
  3. Observatorio de Mujeres contra la Desinformación y Fake News en conjunto con la Fundación Multitudes y la Universidad de Valparaíso.

Estrategias de los Medios para Combatir la Desinformación. Sebastián Rivas, Editor General de Audiencia del Grupo Copesa

El trabajo de los medios de comunicación para contrarrestar la desinformación es un trabajo complejo donde se debe partir con tres principios para la conversación:

  1. Un medio de comunicación, desde la mirada más moderna de la prensa, tiene una responsabilidad de combatir la desinformación y no alimentarla intencionadamente como piso mínimo.
  2. Un medio de comunicación tiene un proceso para chequear aquello que publica. En el proceso pueden ocurrir errores, pero el objetivo siempre será conseguir información más exacta, precisa y verídica.
  3. Más allá de la línea editorial que pueda tener el medio y las interpretaciones o análisis que pueda hacer sobre los escenarios, un medio de comunicación se juega su reputación en que las informaciones sean correctas y corresponden a hechos verídicos. 

El proceso de chequeo periodístico

Debe haber una fuente directa y válida que entregue la información. No basta que otro medio publique un dato, si personalmente no se ha corroborado, no se puede publicar, porque si hay un error se pasa a ser parte de él. 

Los datos deben ser entregados identificando de dónde provienen, ya sea con citas directas (en on) o, en caso de que el emisor no pueda ser revelado, con suficientes referencias para entender de dónde proviene la información (en off).

Salvo que sean cuentas oficiales, las redes sociales no son fuentes válidas por sí solas. Son insumos, pero no puede darse una información como válida por el sólo hecho de que alguien publicó información. 

Los desafíos modernos

La desinformación avanza rápido y fuera de la vista general: por campañas targeteadas en Facebook, por cadenas de Whatsapp. Hay estrategias de monetización o ideologías en que no importa qué el contenido que se está difundiendo sea cierto y, al mismo tiempo, los medios de comunicación están con un ritmo vertiginoso de publicación de información.

La cantidad de información circulando hace que los errores sean más frecuentes, y es una tarea de los medios desarrollar formas para enfrentar esta situación. 

¿Cómo enfrentan los medios este desafío? Existen capas de trabajo: periodistas y editores. Lo ideal es que el proceso permita revisiones previas a la publicación y pase por múltiples filtros. Aplicar el principio de abstención, el cual consiste en que en la duda es mejor no publicar y re chequear. 

El procedimiento de rectificación: cómo se comunica una actualización o modificación relevante en un contenido ya publicado. Sin embargo, pese a todas estas capas, los medios están en un ciclo permanente de revisión por errores en los procesos o en las propias informaciones. 

Dentro de las “zonas grises” de la conversación, se tiene que evidenciar que no siempre una publicación es una fake news. El abuso del concepto puede generar confusión en el público, ya que por lo general esta tiene una intencionalidad y va a ser mentira más allá de las posibles interpretaciones existentes.  En muchos casos, más en los tiempos actuales, existen fallas o errores técnicos que van más allá de las condiciones periodísticas: la opinión y análisis no es lo mismo que información.

Conferencia 3: Las Redes Sociales como Incubadora Ideal de la Desinformación

Las Redes Sociales como Incubadora Ideal para la Desinformación en Procesos Electorales. Luiza Bandeira, Investigadora y Editora en el Laboratorio de Investigación Digital Forense del Atlantic Council

DFRLab tiene como idea principal identificar, exponer y explicar la desinformación, cómo se amplifica y cuáles son los procesos involucrados. Trabajan con tres ejes principales que se interrelacionan entre sí: Democracia, seguridad y tecnología. La metodología es trabajar con datos abiertos disponibles en el internet: imágenes de conflictos con geolocalización y satélites para verificar la información; verificar cuáles son las características para identificar si un perfíl es real o no (código fuente de páginas). A partir de esto se toman datos cuantitativos y se estudian bajo ejes cualitativos para identificar estas problemáticas a nivel social. 

En cuanto a las redes sociales como incubadoras de la desinformación, hay que destacar que la desinformación no está sólo en estas plataformas, el entorno y el contexto también incide en la propagación de este fenómeno. En primer lugar, hay millones de usuarios que consumen y producen información, esto puede ser muy positivo por el acceso a la información como muy perjudicial para la privacidad. Los algoritmos privilegian a las publicaciones que generan interacción por lo que esta pasa a ser la finalidad, al mismo tiempo que el algoritmo permite el “microtargeting” a grupos específicos refiriéndose a que se puede clasificar la información y dirigirla a múltiples grupos preseleccionados. Finalmente las redes son baratas y a su vez monetizan las publicaciones, por lo que incentivan su uso.

En cuanto a los conceptos a tener en cuenta, se tiene a la “disinformation” versus “misinformation”, donde la intencionalidad dañina de la desinformación no la tiene la misinformation que tiene una intencionalidad desde la ignorancia más que perjudicar personalmente; las fake news, que cada vez se utilizan menos como concepto dado la connotación negativa que se le ha otorgado; los discursos de odio y acoso; y la propaganda.

Respecto al comportamiento de la desinformación, en muchas ocasiones se estudia el contenido de la noticia y se filtra por la veracidad de ella, pero no se estudia de dónde proviene esa interacción en las publicaciones. Los bots son cuentas falsas y/o duplicadas que intervienen en el comportamiento de una noticia en las redes sociales. Esto se ha evidenciado en la rápida masificación en la plataforma de WhatsApp. 

Algunos actores que pueden estar detrás de estas operaciones de influencia o operaciones de información en las campañas de desinformación son políticos, empresas de marketing político, PR (relacionador público), gobiernos y actores extranjeros.

En cuanto a América Latina y el Caribe, se ha observado perfiles falsos con información falsa o errónea que se duplicaron específicamente sobre noticias domésticas, con temas como política, activismo y crítica a los candidatos políticos durante la época de elecciones. La plataforma de Facebook dió de baja estas noticias con este tipo de información y con cuentas de estas características. 

Sobre lo que se debe hacer ante el fenómeno de la desinformación, bots y operaciones de influencia, existen lineamientos generales como hacer conocida la problemática de la deformación, mostrándola como un fenómeno que sí existe y es real, pero a su vez sin perpetuar la misma narrativa; fact checking (revisar la información) y debunking (verificación previa a su publicación); innovar en las redes sociales y buscar las plataformas para incidir en la comunidad; y visibilizar a las víctimas más afectadas con este fenómeno: grupos minoritarios, indígenas, mujeres, migrantes, LGBTQ+, etc.

Salvaguardas en las Redes Sociales para Prevenir la Desinformación. Heloisa Massaro, Investigadora de InternetLab

Para establecer cuáles son los elementos que ayudan a identificar y combatir la desinformación usada como forma de violencia de género en las redes sociales durante los procesos electorales es necesario definir dos conceptos. Primero, la violencia política hace referencia a cualquier acción, conducta o omisión de carácter físico, sexual, psicológico, moral, económico o simbólico, que daña o anula el ambiente, ejercicio y reconocimiento de derechos políticos. Cuando este está dirigido hacia las mujeres, entra en contacto con conceptos como misoginia y discursos de odio. En segundo lugar, la desinformación es un concepto controversial y multifacético; es un intrincado fenómeno informacional que relaciona las transformaciones de la comunicación digital en conjunto con dinámicas socio-políticas específicas. En general, nos podemos referir a la desinformación como contenido engañoso que se presenta asimismo como verdadero y de confianza, tanto periodísticas como científicas, pero que su producción carece de elementos presentes en un paradigma periodístico y/o científico.

InternetLab, ejecutó un programa de investigación en colaboración periodística, que tuvo como objetivo la búsqueda de elementos claves para identificar la violencia de género dentro de las redes sociales. MonitorA, es un observatorio de violencia política de género en las redes sociales en Brasil, la cual se basa en el entendimiento que la violencia política es un fenómeno social importante y que merece atención. La meta es demostrar, de una forma concreta, que la violencia política online está dirigida hacia las mujeres en la mayor parte de los casos.

El proyecto identifica evidencia empírica de la violencia que afecta a las mujeres, especialmente a mujeres negras y/o afrodescendientes, mujeres trans y miembros de la comunidad LBGTQ+, entre otros, creando barreras para obstruir la representación femenina en los espacios de institucionalidad política. 

Los resultados de esta investigación, luego del análisis de múltiples plataformas (Twitter, Instagram, Youtube, etc.) con cientos de publicaciones recolectadas, fueron las siguientes:

  1. La violencia política está dirigida con una mayor intensidad y recurrencia a perfiles femeninos, con alusiones a sus cuerpos, inteligencia (capacidad) y aspectos morales. Las ofensas morales, la “fatphobia” (descriminación a gente gorda) y la “mala fama” fueron los tres temas más nombrados por las candidatas. 
  2. Durante la segunda vuelta electoral en Brasil, estas dinámicas ganaron nuevas aristas y ataques hacia las candidatas mujeres: los mismo partidarios/votantes se convirtieron en objetivos de la violencia de género.
  3. El racismo opera en diferentes facetas. Por ejemplo para Benedita da Silva (PT) se hizo una animalización de su cuerpo, rechazo e incredulidad de su identidad racial y establecieron parámetros directos entre la piel negra y la fealdad. 
  4. El rechazo o la fobia a los miembros de la comunidad transexual (transfóbia) también se presentó en los discursos denegandoles su identidad de género y redirigiendo la conversación forzando la biologización de lo cuerpos. 
  5. Observamos que los hombres, con la excepción de grupos gays, transgénero y tercera edad, son considerados mayormente como malos gerentes o ideológicamente equivocados, a diferencia para las mujeres en general  son ofendidas por quienes son, no por sus acciones como candidatas o sus acciones políticas e ideología como en el caso de los hombres. 

Dentro del estudio se ha mapeado la desinformación de género en las narrativas de las redes sociales. Estas narrativas se usan con la finalidad de apoyar las estructuras existentes de opresión y desigualdad, son difíciles de verificar como desinformación o no. 

Algunas narrativas que los actores públicos emplean, se encuentran el el “área gris” entre información y desinformación. Estas narrativas pueden incitar la violencia de sus seguidores en comentarios posteriores. La desinformación aparece tanto como estrategia para apoyar la violencia y la opresión, como también un tipo de narrativa dirigida a atacar específicamente a mujeres.

Salvaguardas y recomendaciones

  • Información sobre las políticas de las redes sociales: los lineamientos generales de la comunidad (discursos de odio, intimidación, desinformación, entre otros), moderación del contenido, políticas de integridad electoral y herramientas para moderar los comentarios.
  • Evitar la amplificación y oxigenación de estas publicaciones: Ocupa el silencio como estrategia, omisión de contenido potencialmente dañino; masificación estratégica, diseminación de contenido ético y responsables;  y minimizar los daños, evaluando el impacto  positivo y negativo que la publicidad de episodios violentos y extremistas pueden tener.
  • Reportar las conductas abusivas en los canales oficiales de información (plataformas gubernamentales por ejemplo).
  • Guardar la evidencia de violencia y/o intimidación;
  • Estar en constante contacto entre verificadores de hechos, que ayudan a compartir información verídica y comprobada.
  • Evita contestar o entrar en discusión con actores que buscan iniciar los discursos de odio y las peleas (bots/trolls).

Algunas recomendaciones dirigidas a las plataformas son:

  • Incluir los discursos de odio a las políticas electorales de integridad. En orden de asegurar la visibilidad interna del fenómeno y centrarse en resolver este tipo de problema durante el periodo de elecciones.
  • Facilitar el reporteo. Crear mecanismos simples para prevenir que las víctimas tengan que reportar ítem tras ítem de forma engorrosa. Esto se vuelve imposible en casos de ataques masivos o cuando hay un alto volumen de agresiones.
  • Invertir en actividades de moderación, proporcionando respuestas más rápidas y apropiadas a los incidentes reportados.
  • Ser transparente acerca de los procedimientos que están informando. Por qué el contenido se ha removido, quién lo ha reportado y cuál es la posibilidad de apelar.
  • Ofrecer transparencia en los reportes o al momento de eliminar un contenido específico durante el período de elecciones.
  • Fomentar la conciencia de las campañas  en contra de la violencia política en línea, enfatizando las consecuencias de cada práctica, dentro y fuera de las plataformas.

Sesiones de Desarrollo de Capacidades 3

Participación Pública para Mejorar el Community Engagement. Katya Petrikevich, Co-fundadora y Directora Internacional de Participation Factory

La participación pública es el compromiso que tiene un grupo específico, con la meta de recopilar y crear información en conjunto. Tradicionalmente las campañas de incidencia, la planificación y las tomas de decisiones se realizan en relaciones a lo que se llama “data técnica” que viene de expertos, estadísticas o estudios las cuales operan dentro de una base limitada. Esto deja fuera toda una base de lo que se denominó como “data viva” que viene directo de ciudadanos y las experiencias de las comunidades que no se puede acceder desde el data técnico. Estas experiencias en muchas ocasiones se dejan de lado y se les resta importancia en el momento de toma de decisiones.

La “data viva” tiene múltiples capas de análisis, en primer lugar está el público general considerado como el menos valorado por no tener las calificaciones o la expertise  para ser incluidos en la conversación, especialmente en las decisiones públicas y la elaboración de estrategias. Esto es contradictorio cuando pensamos que exactamente son el público quienes son los expertos en ser los miembros de sus comunidades y los beneficiarios de las acciones que se están llevando a cabo. Es por esto que es importante incluirlos e informarles sobre las decisiones que se están tomando y co-diseñar o co-decidir para generar medidas sostenibles en el tiempo.

Por otro lado tenemos a comunidades con una mayor participación a lo largo del tiempo, ONGs, organizaciones y empresas que tienen una agenda en mente y que pueden ser facilitadores del proceso de participación, alcanzando a una mayor cantidad de gente, capitalizar o superar algunas limitaciones existentes, como finalidad empoderar a la población.

El último grupo son expertos, académicos y quienes finalmente son los invitados a participar en la toma de decisiones y no figuran un porcentaje representativo de la población, ni los beneficios que otorga una grupo más heterogéneo con múltiples representantes. 

La participación ciudadana tiene como objetivo traer más inclusión a la discusión, crear un espacio de pertenencia y democratización, especialmente cuando hablamos de grupos históricamente marginados y no incluidos en las tomas de decisiones. También que exista un alto nivel de transparencia y confianza en las instituciones públicas como también entre grupos de la sociedad civil, ya que logra que las personas se involucren de mayor manera en la toma de decisiones. Reunir a un grupo heterogéneo ya es valioso por sí mismo y como experiencia al momento de analizar la perspectiva y de dónde es que viene cada persona dentro del grupo. 

 

La data viva identifica necesidades reales e inmediatas, muchas de la toma de decisiones se hacen en la base de data incompleta como también de suposiciones de las necesidades de las personas. La buena intención de crear políticas públicas que ayuden a estos grupos, en muchas ocasiones no es lo que las personas necesitan necesariamente, ni tampoco entender a totalidad la realidad particular de un contexto específico. Es por esto que tener una heterogeneidad de personas y grupos puede ayudar a entender, conceptualizar e imaginar las problemáticas que otros grupos no problematizan o entenderán bajo sus experiencias. 

 

Esto tiene como finalidad crear mejores resultados y productos en la toma de decisiones, crear mayores índices de satisfacción y en general una mayor satisfacción en los procesos democráticos y de participación en la institucionalidad pública. 

Para lograr una participación heterogénea, hay que empezar desde la base e introducirlos a procesos de participación, incentivando a que sus voces sean escuchadas y que son importantes. Hay cinco niveles básicos de participación pública:

  1. Informar: Proveer a la gente con lo básico sobre participación, ser transparente, mantenerlos actualizados e informados. Comunicar y otorgar herramientas.
  2. Consultar: Obtener retroalimentación y reconocer la importancia de sus experiencias. 
  3. Involucrar: Involucrar e invitar a diseñar objetivos específicos con una meta en común.
  4. Colaborar: Invitar a grupos a asociarse totalmente con las iniciativas y co-diseñar soluciones, creando nuevos aspectos sin haber una asimetría de quién tiene el poder en la toma de decisiones.  
  5. Empoderar: Invitar a grupos y personas a tomar decisiones por ellos mismos o como parte de la comunidad en la que pertenecen, a votar por la mejor solución que ellos consideran pertinente, delegando el poder hacia las personas.  

Estos niveles empiezan de bajo nivel de participación y compromiso hacia un nivel sofisticado de simetría e involucramiento.   

 

Ejemplos

  • Asamblea Constitucional de Islandia (2011): 25 ciudadanos islandeses para escribir una nueva constitución en el año 2009. Se usaron herramientas y plataformas como redes sociales, Youtube, Twitter, Facebook, entre otros, usando crowdsourcing por primera vez como método de revisión constitucional. Se crearon productos como artículos de información sobre los derechos, el rol del parlamento y las propiedades de los recursos naturales de Islandia. 
  • El diálogo de ciudadanos sobre el futuro de la energía de Canadá (2017-2018): Se seleccionaron de manera aleatoria 150 ciudadanos canadienses, los cuales a través del proceso de diálogo deliberado trabajaron juntos y escucharon diferentes opiniones y perspectivas. Llegaron a compromisos y concesiones sobre las recomendaciones que iban a presentar para el futuro en la energía de Canadá. 
  • Presupuesto participativo y la inclusión de personas con discapacidades en Glasgow, Escocia (desde 2014): Luego de un cambio en las dinámicas políticas, se asignó un referendum para promover la identidad nacional y contrarrestar los niveles de pobreza infantil en el distrito de Calton, donde se puso un especial énfasis en grupos históricamente marginados como son las personas con discapacidades, quienes dentro de esta iniciativa pudieron desarrollar un programa social específico para atender a sus necesidades y experiencias.
  • Conferencia del futuro de Europa: En esta se invitaron a 800 ciudadanos europeos para debatir de los desafíos y prioridades de Europa. Esta se ejecutó en una plataforma multilingüística otorgando un espacio para que se pudieran enviar solicitudes y que estas fueran recogidas, analizadas, monitoreadas y publicadas a lo largo de la conferencia. Se descentralizaron las localidades y eventos, se crearon paneles de discusión y plenarios finales. 

Herramientas de participación: Investigación cualitativa, investigación cuantitativa, grupos focales, reuniones públicas, mapeo de participación, estrategias comunicacionales, uso de plataformas digitales, análisis de data, entre otras.

El Civic Tech, a diferencia de Gov Tech, se enfoca en los ciudadanos como beneficiarios directos de la instancia. Se pone a la ciudadanía y no las operaciones o resultados en el centro de la conversación. Busca lograr un compromiso y sostenibilidad con las comunidades, no necesariamente logrando una eficiencia en la toma de decisiones. Algunos tipos pueden ser resultado de: Encuestas o sondeos, cuestionarios y  votaciones, retroalimentación, mapeos (visualización y análisis de data), divulgación de información, comunicación rápida y co-creación. 

Reporte de Logros del TechCamp Chile

Mediadores: Patricia Reyes, Doctora en Comunicación, Derecho a la Información y Ética; y Sebastian Rivas, Editor General de Audiencia del Grupo Copesa

Las y los participantes del TechCamp realizaron diversas propuestas a ser implementadas más allá del programa para combatir la desinformación, como iniciar el trabajo colaborativo, buscar soluciones colectivas y apoyar la incidencia en todos los aspectos dentro de los lugares de la sociedad civil, académicos, medios de comunicación, etc., implementar estudios en múltiples regiones y países con el propósito de encontrar soluciones, similitudes y diferencias para combatir este problema. Esto se debe hacer creando un espacio digital, responsable y ético. 

Por otro lado, se planteó realizar análisis de contenido y estudios sobre cuál es el efecto que tiene la desinformación en la población, especialmente en los medios socialmente validados. “Info – intoxicación” como nuevo concepto para representar la excesiva cantidad de información a la que se está constantemente en exposición. Verificar y comprobar los medios en los cuales uno se está informando: dónde se crea, quién los crea, a quién va dirigida la información y quienes terminan recibiendo la información. 

Asimismo, se estableció como propuesta mejorar el limitado acceso que tienen las ciencias sociales al “big data” para obtener información relevante para el análisis de tendencias comunicacionales. Esto muestra la abismal asimetría de poder dentro de los grupos de la sociedad civil y las grandes corporaciones.

Una de las sugerencias con las que coincidió la mayor parte de las y los participantes fue democratizar la ciencia y la tecnología a través de la educación y la enseñanza en paralelo con las medidas de control punitivas que se están implementado en las plataformas en línea. Otorgar las medidas y herramientas necesarias para educar a la población evaluando las particularidades de cada comunidad fomentando, desde la sociedad civil, un acercamiento a la información pública. 

Se propuso estudiar el acceso a la información desde un enfoque “multicapa”: acceso a equipos tecnológicos, acceso a educación sobre cómo utilizar las diferentes plataformas, acceso a información confiable, poder identificar una fuente y noticia confiable, entre otros.

Las y los participantes plantearon establecer plataformas participativas con el fin de incluir a grupos históricamente excluidos (mujeres, pueblos indígenas, poblaciones rurales, colectivos LGBTQ+) y hacerlo en conexión con grupos de la sociedad civil para facilitar la comunicación y participación. Acercar a las personas a plataformas tecnológicas que se utilizan en eventos de participación ciudadana y toma de decisiones.

Responsabilizar a los medios de comunicación por el contenido y la exposición negativa que la desinformación tiene sobre la población, como también a las plataformas que se utilizan para divulgar información, fue una propuesta en la que las y los participantes estuvieron de acuerdo. 

Analizar la violencia de género en los medios de comunicación y redes sociales, con el fin de mitigar los efectos negativos que esta tiene sobre la participación de las mujeres en los puestos de decisión, fue un planteamiento relevante.

Otra propuesta relevante fue crear plataformas sobre cómo prevenir y combatir la desinformación, manteniendo información actualizada para el uso de todos los actores en esta plataforma y brindando herramientas de uso común.

Asimismo, generar más instancias de conversación y discusión para educar a la población sobre qué es la desinformación y la diferencia con la misinformation, fake news, etc. para que puedan ser incluidos en los análisis y conversaciones, se reconoció como una  medida clave a ser implementada.

En cuanto a la participación democrática de la mujer, se propuso incluir en todos los niveles educativos contenidos relacionados con cómo prevenir y combatir la desinformación, para que desde temprana edad la población cuente con los conocimientos y herramientas adecuados para evitar la exclusión de las mujeres en los procesos de toma de decisiones y el posterior retroceso democrático.

Se reconoció la importancia de desnormalizar la desinformación dentro de las redes y al mismo tiempo prevenir la divulgación de noticias falsas en el ejercicio de emitir opiniones e informar. 

Se estableció la importancia de reconocer nuestra “maleta” o “huella” digital auto reconociéndonos como nativos digitales, identificando cómo estamos consumiendo y qué estamos produciendo y compartiendo para ser capaces de entender las estrategias comunicacionales que están detrás de la desinformación y este paradigma anclado en la sociedad actual.

En cuanto a la desinformación, se estableció que se debe identificar sus aristas, como un fenómeno de género, político, social, entre otros. Se necesita un análisis dogmático para luego empezar a identificar cómo sancionarlas dentro del ámbito penal: qué organismos se van a ver involucrados, cómo lo regulamos, cómo reparar a las víctimas, etc. Asimismo identificar cómo vamos a incluir estas temáticas a la institucionalidad como un órgano garante dentro de la constitución.

Finalmente, mantener constantemente actualizada la información sobre las nuevas plataformas que van surgiendo y en las cuales se interactúa, incentiva a mantener al día los procesos y lugares en donde ocurre la desinformación, para luego tener las herramientas para contrarrestarlas.

Reporte de la Encuesta de Salida del TechCamp Chile

Al momento de finalizar la jornada de TechCamp Chile, se les solicitó tanto a participantes como entrenadores que respondan una encuesta de salida para evaluar el impacto, los desafíos y los logros que esta actividad alcanzó en la lucha contra la desinformación. Esta encuesta se implementó de forma voluntaria, obteniendo un total de 15 respuestas, 11 de participantes y 4 de entrenadores.

El principal desafío que se aproximó al interior de las múltiples organizaciones en las que pertenecen los miembros de TechCamp Chile, luego de las conferencias y sesiones de desarrollo de capacidades, fue la dimensión de género, educación tecnológica, acceso a la información y participación de grupos históricamente vulnerados.

“Visibilizar y generar conciencia de cómo la desinformación afecta el diario vivir de la sociedad, pero en particular, de las mujeres y disidencias que son quienes más afectados se ven por este fenómeno. […] Organizaciones de mujeres y feministas, así como periodistas, activistas y defensoras de derechos humanos están en permanente riesgo, por lo tanto, las estrategias compartidas para hacer frente a la desinformación son claves. Hoy el acceso a la información es vital para la ciudadanía y para fortalecer la democracia.”

A partir de estos desafíos a superar, gracias a las enriquecedoras experiencias y conversatorios de múltiples miembros de la sociedad en esta instancia de aprendizaje, se les preguntó sobre cuál consideran que fue el logro de TechCamp Chile. A esto las y los encuestados respondieron sobre el aprendizaje que tuvieron de las múltiples perspectivas de la sociedad. Desde los medios a la academia, del acceso a la información hasta la participación pública, la capacidad de “hacerse más consciente de cómo la desinformación nos impacta, inclusive en nuestro diario vivir, comprendiendo algunas aristas de las que no tenía tanta información como también la construcción de narrativas y fenómenos de desigualdad en el mundo actual”.

También valoraron la instancia como un medio para “conocer perspectivas, entablar el diálogo, generar redes de contactos y obtener información nueva respecto de este fenómeno creciente”, recalcando la importancia de crear nuevas instancias de intercambio de experiencias sobre este fenómeno y crear una red que potencie estas materias. 

A partir de esto se recomendaron iniciativas para implementar luego del primer evento de TechCamp Chile. A continuación se nombran algunas:

  • Ampliar la invitación a otras áreas de desarrollo.
  • Construir una red de quienes participaron del TechCamp y generar otras instancias de traspaso de información/ conocimiento que les potencien en estas materias.
  • Crear una guía simple que permita tener información básica y mínima de cómo hacer frente a la desinformación, un repositorio de buenas prácticas  con herramientas y métodos para combatir la desinformación y, finalmente, sesiones de reflexión y análisis en contextos electorales y, en el caso de Chile, con el proceso constituyente.
  • Elaborar una guía para implementar en colegios con nociones básicas sobre el tema en un lenguaje accesible para todas edades.
  • Taller de análisis de datos para investigar procesos de desinformación.
  • Continuación de diálogo y conversaciones a lo largo y ancho de Latinoamérica,  puntualmente con quienes tienen el interés de fortalecer su estructura sociopolítica y fomentar una mayor participación de su ciudadanía.
  • Compartir experiencias sobre la temática en otras áreas de la problemática: desarrollo de capacidades más especializada dirigido a quienes directamente manejan las redes sociales y otras para la parte programática.

TechCamp lista de contactos

Plataforma Techcamp chile

PUBLICACIONES

MATERIAL DE SOPORTE

LISTA DE CONTACTOS

TECHCAMP CHILE ENTRENADORES

estados unidos

Kristina Wilfore

Co-Fundadora de #ShePersisted kristina@she-persisted.org

chile

Luiza Bandeira

Investigadora y Editora en el Laboratorio de Investigación Digital Forense del Atlantic Council. LBandeira@ATLANTICCOUNCIL.org

chile

Tomás Martínez

Director de Mala Espina Check. tomas.martinezdelrio@gmail.com

uruguay

Elodie Martínez

Directora de Verificación Digital y Redes Sociales para América Latina y España de AFP. Elodie.MARTINEZ@afp.com

brasil

Dalby Dienstbach

Investigador en Fundación Getulio Vargas dalby.hubert@fgv.br

brasil

Lucas Roberto Da Silva

Científico de Datos en Fundación Getulio Vargas. lucas.roberto@fgv.br

brasil

Heloisa Massaro

Responsable del área de Investigación, Información y Políticas de InternetLab.

Chile

Vladimir Garay

Director de Incidencia de Derechos Digitales

chile

Patricia Reyes

Doctora en Comunicación, Derecho a la Información y Ética por la Universidad Complutense de Madrid

Chile

Sebastián Rivas

Editor General de Audiencias de La Tercera. sebastian.rivas@latercera.com

Chile

Romina Garrido

Abogada, Magíster en Derecho de las Nuevas Tecnologías por la Universidad de Chile

argentina

María Laura Ruggiero

Diseñadora Narrativa y Storyteller, SeirenFilms. mlaura@seirenfilms.com

república checa

Katya Petrikevich

Co-fundadora y Directora Internacional de Participation Factory. katya@participationfactory.com

estados unidos

Carla Dearing

http://carlaformayor.org/ https://www.linkedin.com/in/carladearing/

estados unidos

Betilde Muñoz-Pogossian

Directora del Departamento de Inclusión Social de la Organización de Estados Americanos (OEA). bmunoz@oas.org

colombia (usa)

Evelyn Perez-Verdia

Chief Strategic Officer and President, We Are Más LLC https://www.linkedin.com/in/evelyn-perez-verdia-6812891b/

TECHCAMP CHILE ALUMNI

Chile

Patricio Carrasco

Coordinador de Extensión, Rimisp pcarrasco@rimisp.org

chile

Natacha Blazquez

Asesora Área de Gobernabilidad y Territorio, PNUD natacha.blazquez@undp.org

chile

Francisco Espinoza

Periodista, Servicio Electoral, fespinoza@servel.cl

chile

Camila González Harnau

Periodista, Mala Espina Check ccgonzalez2@uc.cl

CHILE

Carlos Carrasco

Sociólogo, Consejo para la Transparencia carloscarrasco16@gmail.com

chile

Catalina Barrios

Fundación Newenko cbarriosbenavente@gmail.com

chile

Cristóbal Moreno

Periodista, Terram cmorenos@ug.uchile.cl

CHILE

Diego Jofré

Periodista, Tenemos que Hablar de Chile diego@tenemosquehablardechile.cl

chile

Evelyn Vargas

Coordinadora, Corporación Yo Mujer evelyn.vargas@corporacionyomujer.cl

chile

Evelyn Vicioso

Directora Ejecutiva, Fundación Newenko evicioso@newenko.org

CHILE

Fabiola Gutiérrez

Periodista, Corporación Humanas fgutierrez@humanas.cl

chile

Gabriel Ortiz

Investigador, Fundación Espacio Público gabriel.ortiz@espaciopublico.cl

chile

Gabriela Maciel

Periodista, Convención Constitucional gabrielamacielsepulveda@gmail.com

CHILE

Guillermo Bustamante

Investigador, Universidad Finis Terrae gbustamante@uft.cl

chile

Julio Muñoz

Periodista, Convención Constitucional juliomunozf@gmail.com

chile

Luis Sandoval

Director Asuntos Externos, Comunidad Bahai luis.sandoval@bahai.cl

CHILE

Marcelo Santos

Investigador, Universidad Finis Terrae marcelolbsantos@gmail.com

chile

María Alejandra Larraín

Presidenta, Fundación Tribu alejandra@tribu.ong

chile

Anabel Campo

Abogada, Consejo para la Transparencia anabel.campo@gmail.com

CHILE

Myriam Ruiz

Periodista, Universidad del Desarrollo. mruiz@udd.cl

chile

Rodrigo Álvarez

Universidad Mayor rodrigo.alvarez@umayor.cl

chile

Tomás Lawrence

Director Ejecutivo, Fundación Interpreta tomas@interpreta.org​

CHILE

Valeria Machmar​

Periodista, Chile Transparente vmachmar@chiletransparente.cl

Guatemala

Christian Celada

Director, Cmedia cmcelada@gmail.com

guatemala

Gloria Rojas

Coordinadora Social, Asociación PASMO grojas@yahoo.com

argentina

Ignacio Botti

Fundación para la Democracia nacho.botti@hotmail.com

Estados Unidos

Julio May

Especialista en Sistemas de Información Geográfica julio.may@illinois.gov

argentina

Lara Chiavarini

Fundación para la Democracia larachiavarini@democraciainternacional.org

guatemala

Marcos Rodas

Cyber Educadores, Asociación PASMO mrodas@pasmo.org

argentina

Rocío Berardo

Fundación para la Democracia rochi_berardo@hotmail.com

argentina

Susana Lungo

Directora Ejecutiva, Asociación PASMO slungo@pasmo.org

perú

Valeria Mogollón

Comunicadora, OjoPúblico valeriamogollonc@gmail.com

Chile

María Pilar Uribe Silva

Editora General, Franca Magazine pilyuribe@gmail.com

TECHCAMP CHILE ORGANIZADORES

chile

Paulina Ibarra

Directora Ejecutiva, Fundación Multitudes. paulina.ibarra@fundacionmultitudes.org

chile

Jaime Ibarra

Director de Incidencia, Fundación Multitudes jaime.ibarra@fundacionmultitudes.org

PerÚ

Stephani Paliza

Coordinadora General, Fundación Multitudes y Project Manager del TechCamp Chile. spaliza@fundacionmultitudes.org

chile

Ana Quijada

Directora de Investigación, Fundación Multitudes. aquijada@fundacionmultitudes.org

chile

Valeria Acuña

Antropóloga Social y Encargada de Investigación, Fundación Multitudes. vfacuna@fundacionmultitudes.org

chile

Lientur Alcaman

Asesor Programático de Pueblos Originarios, Fundación Multitudes. lalcaman@fundacionmultitudes.org

argentina

Victoria Ferrieri

Directora de Educación, Fundación Multitudes vferrieri@fundacionmultitudes.org

Chile

Alejandra Corvalán

Coordinadora Digital, Fundación Multitudes acorvalan@fundacionmultitudes.org

chile

Rodrigo Miranda

Gestor de Medios, Fundación Multitudes comunicaciones@fundacionmultitudes.org

EMBAJADA DE ESTADOS UNIDOS DE CHILE

Chile

Matt Keener

Agregado de Prensa, Embajada de Estados Unidos en Chile KeenerM@state.gov

EMBAJADA DE ESTADOS UNIDOS DE CHILE

ESTADOS UNIDOS

Manuel Pereira

Project Manager, Oficina de Asuntos Culturales y Educativos PereiraColocciMI@state.gov

OTROS PROYECTOS