The text below is a summary of an article in 'The Economist'. Please check out the link if you want to see the entire article. I wrote down Korean below the English text for Korean speakers. Any advise or criticize for the text will be welcomed. Thank you.
아래의 내용은 이코노미스트 기사의 원문을 요약한 것입니다. 기사 전문을 보고 싶으시다면 링크를 확인하시기 바랍니다. 영어 아래에 있는 한국어는 한국어 사용자에 맞춰 글을 자연스럽게 다듬어 썼습니다. 문법적인 오류나 글에 대한 어떠한 비판이나 지적도 환영합니다. 감사합니다.
<Is Facebook's algorithm racist and sexist?>
<페이스북의 알고리즘은 인종차별주의자이자 성 차별주의자인가?>
Facebook was accused by the American government for blocking whole categories of people from seeing ads by using algorithms that discriminated against minorities to optimize access of ads. A research done by several labs and universities added weight to the American government’s claim, showing that the race and gender of its users affect Facebook’s systems when ads are presented to them. All six experts we asked for comments on this matter stated that it is plausible.
페이스북이 광고 접근성을 높이려 알고리즘을 이용해 소수자들을 차별한 사실이 드러나 미국 정부가 이를 기소하였습니다. 연구소와 대학교에서 진행된 한 연구가 페이스북의 광고 시스템이 사용자의 성별과 연령에 영향을 받는 것을 밝혀내 미국 정부의 주장에 무게를 싣고 있습니다. 자문을 구한 6명의 전문가들도 이 주장이 가능하다고 덧붙였습니다.
The researchers tested ads with images of different entities like sex and race. According to the tests, there were disparities related to gender and ethnicity. For example, white people are more likely to see affordable housing ads than black people. One of the researchers claimed, Facebook’s opaque algorithms are trained on the distorted database. In addition, they cast doubt on using the algorithm called ‘machine vision’.
연구에서는 성별, 인종과 같은 속성을 바꾼 이미지를 이용해 실험을 했으며, 설정한 속성에 따라 큰 차이가 보였음이 확인됐습니다. 예를 들어 백인은 흑인들보다 값싼 주거 광고를 볼 가능성이 높았습니다. 한 연구자는 페이스북의 어설픈 알고리즘이 왜곡된 데이터로 훈련되어 있다고 주장했습니다. 추가로 '머신 비전'이라 불리는 알고리즘의 사용도 의심되고 있습니다.
It is a growing concern to filter huge personal data on Facebook by using algorithms. Especially the complexity of the advertising system blurs the line between discrimination and discomfort. An expert stated that using algorithms to categorize the audience can be against the law.
알고리즘을 이용해 페이스북 상에 있는 막대한 개인정보를 분류하는 것에 대한 우려가 점차 커지고 있습니다. 특히 광고 시스템이 복잡해짐에 따라, 차별과 심리적 불편함의 차이가 불분명해지고 있습니다. 한 전문가는 알고리즘을 이용해 분류를 하는 것이 불법적일 수도 있다고 주장했습니다.
Facebook didn’t deny outcomes from this study, saying that they promised to change. However, experts pointed out that there is certain discrimination without Facebook’s intention. Therefore, it is still doubtful that the software would ignore the biased data on race and gender.
페이스북은 연구 결과를 부정하지 않고 변화할 것을 약속하였습니다. 하지만 전문가 집단은 페이스북의 의도와 상관없이 이 차별이 생겼다고 지적하고 있습니다. 하여 앞으로 소프트웨어가 성별과 인종에 대한 왜곡된 데이터를 무시할 수 있을지는 의심됩니다.
The worry is spreading to all machine- learning programs, run by social media companies. Therefore, it is hard to avoid the negative effects on regulation will have on digital media. Mark Zuckerberg, CEO of Facebook, keeps silence on this problematic ad-modeling.
이 사건을 통해 SNS에서 사용하고 있는 모든 머신러닝 프로그램에 대한 우려가 확산되고 있습니다. 이것은 앞으로 있을 규제안에 영향을 끼치지 않기는 힘들어 보입니다. 페이스북의 사장, 마크 주커버그는 아직까지 이 광고 시스템에 대해 침묵을 지키고 있습니다.
[Origianal text]
[원문]
'Daily Lives 일상' 카테고리의 다른 글
메타인지를 높이는 3가지 방법 (0) | 2019.03.29 |
---|---|
서평을 시작하는 사람을 위한 3가지 마인드와 7가지 방법 (0) | 2019.03.28 |
성장형 마인드셋과 공부 (뼈아대) (0) | 2019.03.18 |