초안 정책: 우분투 원칙이 남아프리카공화국의 AI 거버넌스 환경을 재편할 수 있는가?
DRAFT POLICY: Can ubuntu principles reshape South Africa’s AI governance landscape?
Daily Maverick
· 🇿🇦 Cape Town, ZA
Lindsey Schutters
EN
2026-04-15 02:32
Translated
BEE 소유권 규정을 뒤흔들려 하지 않을 때, 솔리 말라치 통신장관은 확실한 정책 프레임워크를 만들어낸다.
"믿을 수 있고 기술적으로 유능하며 적절한 자원을 갖춘 집행이 없는 정책 프레임워크는 거버넌스가 아니라 연극에 불과하다"고 전직 기자이자 현재 유비퀴티 AI의 창업자인 카비르 베하리가 말했다.
그는 솔리 말라치 통신장관이 우분투 철학과 혁신적인 프레임워크를 결합한 국가 AI 정책 초안을 발표한 것에 대해 논평했다. 이 초안에는 도로사고기금을 연상시키는 AI 보험 슈퍼펀드 설립 제안이 포함되어 있다.
베하리가 비판하는 점은 정부가 정보규제기관이나 이카사와 같은 기존 규제기관에 AI 감독을 의존하고 있다는 것이다. 그는 직원 부족과 기술적 문해력 부재로 개인정보보호법 같은 현행법 집행이 어려운 상황을 예로 든다. 그의 지적은 타당하다.
"기소권을 가진 독립적이고 적절히 자금 지원되는 AI 규제기관 없이는 이 정책은 솔직히 농담에 불과하다"고 베하리는 말했다.
하지만 자세히 읽어보면 이 정책은 OECD AI 원칙과 유네스코 윤리 권고안 같은 글로벌 프레임워크와 일치함을 알 수 있다.
초안 형태(공개 의견 수렴이 60일간 진행됨)에서 이 문서는 서구 규제 모델과 구별되는 여러 매우 참신하고 현지화되며 진정으로 놀라운 개입책을 포함하고 있다.
말라치의 주로 자유지상주의적 접근을 고려할 때, 가장 법적으로 구조적으로 이례적인 제안은 AI 보험 슈퍼펀드 설립일 것이다.
정책 작성자들은 고급 AI 모델이 종종 모호한 의사결정 공간에서 작동하여 피해 책임을 단일 개발자나 기관에 추적하기 어렵다는 점을 인정한다. 이 기금은 도로사고기금(RAF)과 같은 형태로, AI 주도 결과로 피해를 본 개인이나 기관에 보상을 제공하는 국가 지원 안전망 역할을 한다.
정책이 아직 초안이기 때문에 기금의 회계 관행에 대한 징후는 거의 없다. 하지만 국가 지원 보상의 세부사항에 빠지기 전에, 통신디지털기술부(DCDT)가 여기서 무엇을 달성하려 하는지 이해하는 것이 중요하다.
말라치는 이를 공익을 위해 남아프리카공화국의 디지털 미래를 의도적으로 형성하는 필수 단계로 규정한다. "우리는 혁신, 성장, 더 나은 서비스 제공을 위한 조건을 만들면서도 사람들의 권리를 보호하고 AI가 불평등이나 배제를 심화시키지 않도록 해야 한다"고 그는 금요일에 말했다.
이는 헌법에 뿌리를 둔 고귀한 정신이다. 하지만 이 미래를 구축해야 할 기술 생태계는 정부가 자신의 발목을 잡는 것에서 벗어날 수 있는지에 대해 본질적으로 회의적이다.
현지 기술 스타트업 지원사 스펙노의 CEO 조슈아 하비는 이 정책이 합리적인 "중도적" 접근을 취하고 있지만, 그 성공은 정부가 현지 혁신가들과의 관계를 구조적으로 개혁할지 여부에 전적으로 달려 있다고 주장한다.
"조달 개혁 없는 현대화는 그저 문서에 불과하다"고 하비는 경고한다. 그의 지적은 전통적인 공공부문 입찰 절차가 민첩한 AI 스타트업을 체계적으로 배제하고 대기업을 선호한다는 것이다.
그는 정부에 엄격한 기술 입찰 대신 문제 구성 도전을 발행하라고 조언한다: "내무부 대기 시간을 줄이기 위해 AI를 어떻게 활용할 수 있는가?"가 60페이지짜리 RFP(제안요청서)보다 더 나은 과제다.
하비는 또한 수입 편향의 중요한 위험성을 지적한다. 공공부문 데이터가 고립되어 있기 때문에 남아프리카공화국 개발자들은 북반구의 데이터셋에 의존할 수밖에 없다.
이를 해결하기 위해 그는 현지 연구자들을 위해 익명화된 공공 데이터를 개방하는 국가 데이터 신탁을 제안한다. 다행히 DCDT 초안은 이 방향을 언급하며, 비공개 데이터가 공공재로 취급되어야 한다고 적극적으로 주장한다.
그러나 이 정책이 진정으로 stumble하는 부분은 모든 사람을 위한 모든 것이 되려는 시도이다. DCDT의 설명서는 명시적으로 "의도적으로 모호한 표현을 사용한 다양한 개입책이 있다"고 인정한다.
이는 협업적이라는 프레임이지만, 큰 허점을 만들어 엄격한 규제 입장을 지연시키고 즉각적인 프레임워크를 법적으로 모호하게 만든다.
예를 들어, 이 정책 진술을 보자:
이는 불투명하고 복잡한 모델의 개발자들이 시스템이 규제하기에 너무 고급스럽다고 주장하는 것만으로 투명성 요건에서 자유로워지게 한다.
이것이 우리를 베하리의 핵심 비판으로 되돌아가게 한다: 누가 이것을 감독할 것인가?
초안은 준수 모니터링, 감사 수행, 인증 발급을 위한 독립적인 AI 규제기관 설립을 약속한다. 동시에 이카사, 정보규제기관, 경쟁위원회에 걸쳐 감독이 분산되는 다중 규제기관 모델을 고수한다.
처음 지적했듯이 기계학습 감사 역량이 부족한 기존 기관들에 책임을 분산함으로써, 정부는 아무도 책임지지 않는 단편화된 관료주의 미로를 만들 위험이 있다.
또한 제안된 국가 AI 위원회와 AI 윤리 위원회의 실질적 독립성은 모호하다. 정책 문언에 따르면 이들과 DCDT의 관계가 정부 영향 하의 기관으로 운영될지 아니면 진정한 독립성을 가질지 결정한다며, 정치적 개입과 규제 포획의 문을 활짝 열어두고 있다.
이러한 뚜렷한 구조적 공백에도 불구하고, 초안에는 여러 깊이 현지화된 의무사항이 포함되어 있다. 이는 레인보우 네이션의 기초 철학인 우분투를 AI 거버넌스의 등불이자 렌즈로 공식적으로 통합하여, 시스템이 서구 개인주의적 데이터 프라이버시 권리에만 집중하는 것이 아니라 공공의 이익을 위해 봉사할 것을 요구한다.
또한 이 정책은 국제 노동법에 놀라운 일격을 가하며, 다국적 기업에 고용된 현지 긱 워커들에게 공정한 임금을 요구하고 AI 시스템을 훈련시키는 인간 데이터 라벨러들에게 심리적 케어를 의무화하는 데이터 정의 접근법을 채택한다.
말라치의 정책은 또한 개발자들이 소비자들이 AI를 우회하고 인간과 소통할 수 있는 선택권을 보장하도록 규정하고 있지만, "가능한 경우"라는 한정어로 멈춘다.
압권은 국가적 의사소통 장벽을 극복하기 위해 12개 공식 언어 전체에 걸쳐 실시간 언어 번역을 달성하라는 대규모 국가 주도 기술 의무사항이다.
이것은 야심 찬, 독특하게 남아프리카공화국적인 목표들이다. 하지만 공개 의견 수렴 기간이 7월 10일 마감일을 향해 흘러가면서, 기술 부문은 이러한 개방적 선택권을 집행 가능한 현실로 전환하는 방법을 적극적으로 질문해야 한다. DM
그는 솔리 말라치 통신장관이 우분투 철학과 혁신적인 프레임워크를 결합한 국가 AI 정책 초안을 발표한 것에 대해 논평했다. 이 초안에는 도로사고기금을 연상시키는 AI 보험 슈퍼펀드 설립 제안이 포함되어 있다.
베하리가 비판하는 점은 정부가 정보규제기관이나 이카사와 같은 기존 규제기관에 AI 감독을 의존하고 있다는 것이다. 그는 직원 부족과 기술적 문해력 부재로 개인정보보호법 같은 현행법 집행이 어려운 상황을 예로 든다. 그의 지적은 타당하다.
"기소권을 가진 독립적이고 적절히 자금 지원되는 AI 규제기관 없이는 이 정책은 솔직히 농담에 불과하다"고 베하리는 말했다.
하지만 자세히 읽어보면 이 정책은 OECD AI 원칙과 유네스코 윤리 권고안 같은 글로벌 프레임워크와 일치함을 알 수 있다.
초안 형태(공개 의견 수렴이 60일간 진행됨)에서 이 문서는 서구 규제 모델과 구별되는 여러 매우 참신하고 현지화되며 진정으로 놀라운 개입책을 포함하고 있다.
말라치의 주로 자유지상주의적 접근을 고려할 때, 가장 법적으로 구조적으로 이례적인 제안은 AI 보험 슈퍼펀드 설립일 것이다.
정책 작성자들은 고급 AI 모델이 종종 모호한 의사결정 공간에서 작동하여 피해 책임을 단일 개발자나 기관에 추적하기 어렵다는 점을 인정한다. 이 기금은 도로사고기금(RAF)과 같은 형태로, AI 주도 결과로 피해를 본 개인이나 기관에 보상을 제공하는 국가 지원 안전망 역할을 한다.
정책이 아직 초안이기 때문에 기금의 회계 관행에 대한 징후는 거의 없다. 하지만 국가 지원 보상의 세부사항에 빠지기 전에, 통신디지털기술부(DCDT)가 여기서 무엇을 달성하려 하는지 이해하는 것이 중요하다.
말라치는 이를 공익을 위해 남아프리카공화국의 디지털 미래를 의도적으로 형성하는 필수 단계로 규정한다. "우리는 혁신, 성장, 더 나은 서비스 제공을 위한 조건을 만들면서도 사람들의 권리를 보호하고 AI가 불평등이나 배제를 심화시키지 않도록 해야 한다"고 그는 금요일에 말했다.
이는 헌법에 뿌리를 둔 고귀한 정신이다. 하지만 이 미래를 구축해야 할 기술 생태계는 정부가 자신의 발목을 잡는 것에서 벗어날 수 있는지에 대해 본질적으로 회의적이다.
현지 기술 스타트업 지원사 스펙노의 CEO 조슈아 하비는 이 정책이 합리적인 "중도적" 접근을 취하고 있지만, 그 성공은 정부가 현지 혁신가들과의 관계를 구조적으로 개혁할지 여부에 전적으로 달려 있다고 주장한다.
"조달 개혁 없는 현대화는 그저 문서에 불과하다"고 하비는 경고한다. 그의 지적은 전통적인 공공부문 입찰 절차가 민첩한 AI 스타트업을 체계적으로 배제하고 대기업을 선호한다는 것이다.
그는 정부에 엄격한 기술 입찰 대신 문제 구성 도전을 발행하라고 조언한다: "내무부 대기 시간을 줄이기 위해 AI를 어떻게 활용할 수 있는가?"가 60페이지짜리 RFP(제안요청서)보다 더 나은 과제다.
하비는 또한 수입 편향의 중요한 위험성을 지적한다. 공공부문 데이터가 고립되어 있기 때문에 남아프리카공화국 개발자들은 북반구의 데이터셋에 의존할 수밖에 없다.
이를 해결하기 위해 그는 현지 연구자들을 위해 익명화된 공공 데이터를 개방하는 국가 데이터 신탁을 제안한다. 다행히 DCDT 초안은 이 방향을 언급하며, 비공개 데이터가 공공재로 취급되어야 한다고 적극적으로 주장한다.
그러나 이 정책이 진정으로 stumble하는 부분은 모든 사람을 위한 모든 것이 되려는 시도이다. DCDT의 설명서는 명시적으로 "의도적으로 모호한 표현을 사용한 다양한 개입책이 있다"고 인정한다.
이는 협업적이라는 프레임이지만, 큰 허점을 만들어 엄격한 규제 입장을 지연시키고 즉각적인 프레임워크를 법적으로 모호하게 만든다.
예를 들어, 이 정책 진술을 보자:
이는 불투명하고 복잡한 모델의 개발자들이 시스템이 규제하기에 너무 고급스럽다고 주장하는 것만으로 투명성 요건에서 자유로워지게 한다.
이것이 우리를 베하리의 핵심 비판으로 되돌아가게 한다: 누가 이것을 감독할 것인가?
초안은 준수 모니터링, 감사 수행, 인증 발급을 위한 독립적인 AI 규제기관 설립을 약속한다. 동시에 이카사, 정보규제기관, 경쟁위원회에 걸쳐 감독이 분산되는 다중 규제기관 모델을 고수한다.
처음 지적했듯이 기계학습 감사 역량이 부족한 기존 기관들에 책임을 분산함으로써, 정부는 아무도 책임지지 않는 단편화된 관료주의 미로를 만들 위험이 있다.
또한 제안된 국가 AI 위원회와 AI 윤리 위원회의 실질적 독립성은 모호하다. 정책 문언에 따르면 이들과 DCDT의 관계가 정부 영향 하의 기관으로 운영될지 아니면 진정한 독립성을 가질지 결정한다며, 정치적 개입과 규제 포획의 문을 활짝 열어두고 있다.
이러한 뚜렷한 구조적 공백에도 불구하고, 초안에는 여러 깊이 현지화된 의무사항이 포함되어 있다. 이는 레인보우 네이션의 기초 철학인 우분투를 AI 거버넌스의 등불이자 렌즈로 공식적으로 통합하여, 시스템이 서구 개인주의적 데이터 프라이버시 권리에만 집중하는 것이 아니라 공공의 이익을 위해 봉사할 것을 요구한다.
또한 이 정책은 국제 노동법에 놀라운 일격을 가하며, 다국적 기업에 고용된 현지 긱 워커들에게 공정한 임금을 요구하고 AI 시스템을 훈련시키는 인간 데이터 라벨러들에게 심리적 케어를 의무화하는 데이터 정의 접근법을 채택한다.
말라치의 정책은 또한 개발자들이 소비자들이 AI를 우회하고 인간과 소통할 수 있는 선택권을 보장하도록 규정하고 있지만, "가능한 경우"라는 한정어로 멈춘다.
압권은 국가적 의사소통 장벽을 극복하기 위해 12개 공식 언어 전체에 걸쳐 실시간 언어 번역을 달성하라는 대규모 국가 주도 기술 의무사항이다.
이것은 야심 찬, 독특하게 남아프리카공화국적인 목표들이다. 하지만 공개 의견 수렴 기간이 7월 10일 마감일을 향해 흘러가면서, 기술 부문은 이러한 개방적 선택권을 집행 가능한 현실로 전환하는 방법을 적극적으로 질문해야 한다. DM
처리 완료
200 tokens · $0.0004
기사 수집 완료 · 00:40
매체 피드에서 기사 메타데이터 수집
헤드라인 번역 완료 · 00:56
제목/요약 한국어 번역 (fetch 시점 inline)
kimi-k2.5
200 tokens
$0.00039
4.4s
본문 추출 완료
6,448자 추출 완료
본문 한국어 번역 완료 · 00:56
3,010자 번역 완료
지정학적 엔티티 추출 완료 · 00:56
2개 엔티티 추출 완료
지정학적 맥락 & R-Scanner
R-Scanner · 평상
z=-2.17
일상적인 보도 수준 — 기준: South Africa
(🇿🇦 ZA)
최근 6시간 0건
7일 평균 5.54건 / 6h
0개국 매체
0개 매체
본문에서 추출된 지명 (2)
위치 지도
지도 로딩 중…
같은 주제의 다른 기사 (최근 7일)
When not trying to shake up the BEE ownership regulations, Communications Minister Solly Malatsi does cook up some solid policy frameworks.
“A policy framework without credible, technically capable, adequately resourced enforcement is not governance – it is theatre,” said former journalist and now founder of Ubiquity AI, Kaveer Beharee.He was commenting on Communications Minister Solly Malatsi’s unveiling of a draft national AI policy that blends ubuntu philosophy with innovative frameworks, including a proposed AI Insurance Superfund reminiscent of the Road Accident Fund.
The axe Beharee is grinding is with the state’s reliance on existing regulators (like the Information Regulator and Icasa) to oversee AI, using the current lack of staff and technical literacy to enforce existing laws like the Protection of Personal Information Act as an example. He makes a good point.
“Without an independent, properly funded AI regulatory authority with prosecutorial power, this policy, honestly, is a joke,” said Beharee.
But a closer reading reveals a policy that aligns with global frameworks such as the OECD AI Principles and Unesco’s ethics recommendations.
In its draft form (public comment is open for 60 days), the document contains several highly novel, localised and genuinely surprising interventions that distinguish it from Western regulatory models.
Perhaps, especially given Malatsi’s largely libertarian approach to equity regulations, the most legally and structurally anomalous proposal is the establishment of an AI Insurance Superfund.
The policy authors acknowledge that advanced AI models often operate in ambiguous decision-making spaces where liability for harm is difficult to trace back to a single developer or entity. This fund is cast in the same mould as the Road Accident Fund (RAF), providing a state-backed safety net to compensate individuals or entities harmed by AI-driven outcomes.
Because the policy is still in draft, there is little indication of the fund’s accounting practices. But before we get lost in the weeds of state-backed compensation, it is crucial to understand what the Department of Communications and Digital Technologies (DCDT) is trying to achieve here.
Malatsi frames it as a necessary step in deliberately shaping South Africa’s digital future in the public interest. “We must create the conditions for innovation, growth, and better service delivery while also protecting people’s rights and ensuring that AI does not deepen inequality or exclusion,” he said on Friday.
It’s a noble sentiment grounded in the Constitution. However, the tech ecosystem tasked with building this future is inherently sceptical of the state’s ability to get out of its own way.
Joshua Harvey, the CEO of local tech startup enabler Specno, argues that while the policy takes a sensible “middle of the road” approach, its success rests entirely on whether the government will structurally reform its engagement with local innovators.
“Modernisation without procurement reform is just a document,” Harvey warns. His point is that the traditional public sector tendering process systematically shuts out agile AI startups in favour of large enterprises.
His advice to the state is to issue problem-framing challenges rather than rigid technical tenders: “‘How can we use AI to reduce queue times at Home Affairs?’ is a better brief than a 60-page RFP [request for proposal].”
Harvey also flags the critical risk of imported bias. Because public sector data remains siloed, South African developers are forced to rely on datasets from the Global North.
To fix this, he proposes a National Data Trust to unlock anonymised public data for local researchers. Fortunately, the DCDT draft does nod in this direction, proactively advocating for non-private data to be treated as a public good.
Where the policy truly stumbles, however, is in its attempt to be everything to everyone. The DCDT’s explanatory note explicitly admits, “There are various interventions that have wording that is purposefully open-ended”.
While this is framed as collaborative, it does create a large loophole, delaying hard regulatory stances and rendering the immediate framework legally ambiguous.
To illustrate, let’s look at this policy statement:
This hands developers of opaque, complex models a free pass from transparency requirements simply by claiming their systems are too advanced to be regulated.
Which brings us back to Beharee’s core critique: who will police this?
The draft promises to establish an independent AI Regulatory Authority to monitor compliance, perform audits and issue certifications. In the same breath, it insists on a multi-regulator model in which oversight is distributed across Icasa, the Information Regulator and the Competition Commission.
By spreading responsibility across existing bodies that, to the opening point, lack machine-learning auditing capacity, the state risks creating a fragmented bureaucratic maze where no one is accountable.
And the practical independence of the proposed National AI Commission and AI Ethics Board remains vague. The policy language says that their relationship with the DCDT will determine if they operate as an entity under government influence or with true independence, leaving the door wide open for political interference and regulatory capture.
Despite these glaring structural gaps, the draft includes several deeply localised mandates. It formally integrates the Rainbow Nation foundation philosophy of ubuntu as a beacon and a lens for AI governance, demanding that systems serve the common good rather than just focusing on Western individualistic data privacy rights.
It also takes a surprising swing at international labour laws, adopting a Data Justice approach that requires equitable wages for local gig-workers employed by multinationals and even mandates psychological care for the human data-labellers who train AI systems.
Malatsi’s policy also includes a provision for developers to ensure that consumers have the option to bypass AI and engage with humans, but stops short by offering a “where feasible” qualification.
The pièce de résistance is a massive, state-directed technological mandate to achieve real-time language translation across all 12 official languages to overcome national communication barriers.
These are ambitious, uniquely South African goals. But as the public comment window ticks down toward the 10 July deadline, the tech sector must aggressively interrogate how to turn these open-ended options into enforceable realities. DM