경제/과학기술 1 페이지

본문 바로가기

경제/과학기술

Total 5건 1 페이지
  • 본문내용

    생성형 인공지능(AI)이 기사 작성, 데이터 분석, 콘텐츠 요약 등 언론사 업무에 빠르게 스며들고 있다. 신속성과 효율성을 무기로 저널리즘의 혁신을 이끌 것이라는 기대감 속에서, 그 이면에 숨은 법적 리스크에 대한 경고등도 함께 켜졌다. AI가 작성한 기사에 오류가 있거나 타인의 명예를 훼손했을 경우, 그 책임은 과연 누구에게 있을까?


    본지 분석 결과, 현행법 체계에서는 AI 활용 여부와 관계없이 기사에 대한 모든 법적 책임은 최종적으로 기사를 게재한 '언론사'에 귀속되는 것으로 확인됐다. 저작권, 언론중재법, 명예훼손 등 모든 법적 쟁점에서 AI는 법인격이 없는 '도구'로 간주될 뿐, 책임의 주체가 될 수 없다는 것이 법조계와 언론계의 일관된 시각이다.


    저작권 논란'인간의 창작적 기여'가 핵심


    가장 먼저 부딪히는 문제는 저작권이다. 현행 저작권법은 '인간의 사상 또는 감정을 표현한 창작물'만을 보호 대상으로 삼는다. 따라서 AI가 독자적으로 생성한 결과물은 원칙적으로 저작권을 인정받지 못한다.


    다만, 언론사의 기자가 AI를 도구로 활용해 **'창작적으로 기여'**했다면 이야기가 달라진다. 문화체육관광부의 가이드라인에 따르면, 기사 주제 선정 및 기획 독창적 프롬프트 입력 및 수정 AI 생성 결과물의 선택·배열·편집 등 인간의 지적 노력이 투입됐다면 해당 부분은 저작물로 보호받을 수 있다.


    해외에서도 이 원칙은 동일하게 적용된다. 미국 법원은 인간의 개입 없는 AI 생성물의 저작권을 부인한 반면, 중국 법원은 이용자의 지적 노력이 투입됐다면 저작권을 인정할 수 있다는 판결을 내놓은 바 있다. 결국 언론사가 AI 기사의 저작권을 주장하려면, 인간 기자의 창작적 기여 과정을 상세히 기록하고 입증할 수 있어야 한다는 결론에 이른다.


    오보·명예훼손 발생 시AI는 면책, 언론사가 전적 책임


    만약 AI 기사가 잘못된 정보를 담고 있거나 특정인의 명예를 훼손했다면 어떻게 될까? 언론중재법에 따른 정정보도나 형법상 명예훼손죄의 책임은 AI가 아닌 전적으로 언론사가 지게 된다.


    한국언론진흥재단과 인터넷신문윤리위원회는 공통적으로 ‘AI는 보조적 수단이며, 기사 내용의 정확성과 공정성에 대한 최종 책임은 언론사에 있다고 강조한다. AI가 학습 데이터의 편향성이나 기술적 오류(할루시네이션)로 인해 허위 정보를 생성하더라도, 이를 걸러내지 못하고 보도한 이상 언론사는 '과실 책임'에서 자유로울 수 없다.


    'AI가 작성했다' 알려야 하나?'투명성 의무' 대세로


    독자에게 AI 활용 사실을 알려야 하는지에 대한 논의는 이제 '의무'의 영역으로 넘어가고 있다. 아직 법으로 강제되지는 않았지만, 관련 입법과 자율 규제가 빠르게 구체화되는 추세다.


    2026122일 시행 예정인 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(약칭: 인공지능기본법)' 제정안에는 AI 생성물에 대한 표시 의무 조항이 포함되어 있으며, 방송통신위원회 역시 가이드라인을 통해 '투명성 확보'를 권고하고 있다.


    특히 언론계 자율규제는 더욱 명확하다. 인터넷신문윤리위원회는 가이드라인을 통해 "인공지능 기술을 활용했음을 눈에 띄도록 명확하게 표시하고 기사 책임자의 성명을 명시해야 한다"고 못 박았다. 이는 독자의 알 권리를 보장하고 기사의 신뢰도를 담보하기 위한 최소한의 조치로, 사실상 업계 표준으로 자리 잡고 있다.


    AI 시대, 언론사가 갖춰야 할 법적 방어막


    AI 저널리즘 시대에 법적 분쟁을 예방하고 독자의 신뢰를 얻기 위해 언론사는 다음의 사항을 시급히 마련해야 한다.


    첫째, 명확한 내부 가이드라인 수립이다. AI 활용 범위, 인간 기자의 최종 검토 의무, AI 활용 표기 방식 등을 명문화하고 전 직원을 대상으로 정기적인 교육을 시행해야 한다.

    둘째, 인간 중심의 게이트키핑 강화다. AI가 생성한 초안은 반드시 담당 기자가 교차 검증하고, 데스크의 최종 승인을 거치는 등 인간의 관리·감독 역할을 강화해야 한다.

    셋째, 투명한 고지 의무의 이행이다. 기사 말미에 "이 기사는 OOO AI를 활용해 초안을 작성하고, 홍길동 기자가 최종 편집·검토했습니다" 와 같이 AI 활용 사실과 최종 책임자를 명확히 밝혀야 한다.


    기술의 발전은 거스를 수 없는 흐름이다. AI라는 강력한 도구를 책임감 있게 활용하며 저널리즘의 본질적 가치를 지켜내려는 언론사의 치열한 고민과 노력이 그 어느 때보다 필요한 시점이다.(이 기사는 제미나이 AI를 활용해 초안을 작성하고, 정화일 기자가 최종 편집·검토했습니다)

    정화일
    조회수8
    2025-06-08
  • 본문내용

    빅테크 기업, 이용자 동의 없이 개인정보를 AI 모델 학습 훈련데이터 활용
    메타·X의 이용자 데이터 AI 학습 발표했지만 제대로 고지 않는 행태 비판

    요즘 우리가 쓰는 SNS는 단순한 커뮤니케이션 플랫폼이 아니다. 메타(페이스북, 인스타그램), X(구 트위터)와 같은 기업은 우리가 남긴 게시글 뿐 아니라 검색 기록, 위치 정보, 심지어 친구와의 대화 내용까지 수집하고 그 방대한 데이터를 이용해 자신들의 알고리즘을 훈련시키고 있다. 문제는 이 모든 일이 우리도 모르는 사이 우리의 동의 없이 이루어지고 있다는 것이다. 출처 : Unsplash+, Alex Shuper출처 : Unsplash+, Alex Shuper

    요즘 우리가 쓰는 SNS는 단순한 커뮤니케이션 플랫폼이 아니다. 메타(페이스북, 인스타그램), X(구 트위터)와 같은 기업은 우리가 남긴 게시글 뿐 아니라 검색 기록, 위치 정보, 심지어 친구와의 대화 내용까지 수집하고 그 방대한 데이터를 이용해 자신들의 알고리즘을 훈련고 있다. 문제는 이 모든 일이 우리도 모르는 사이 우리의 동의 없이 이루어지고 있다는 것이다.

    지난 4월, 진보네트워크센터와 정보인권연구소, 그리고 해당 플랫폼의 이용자들이 법무법인 지향을 대리인으로 하여 메타와 X를 개인정보보호법 위반으로 개인정보보호위원회에 신고했다.

    빅테크 기업들이 이용자의 동의도 없이 개인정보를 인공지능(AI) 모델 학습의 훈련데이터로 활용하고, 동의 철회를 어렵게 한 것은 명백히 위법이라는 판단 때문이다. “내 일상은 AI 학습용이 아니다”라는 캠페인은 바로 이 위법한 관행에 맞서기 위한 시민들의 선언이다.

    되돌릴 수 없는데, 거부권마저 제약

    SNS에는 십수년간의 삶의 기록이 남아 있다. 나의 성향, 감정, 관계, 소비 습관, 정치적 입장까지 그 안에 응축되어 있다. 문제는 이런 정보가 단순히 ‘내 것’이라는 선언만으로는 지켜지지 않는 시대가 되었다는 점이다. 메타와 X는 개인정보 보호정책을 변경해 이용자의 데이터를 AI 학습에 쓰겠다고 발표했지만 이용자들에게 제대로 고지하지 않았다. 

    메타와 X는 △이용자가 서비스를 사용하면서 생산한 정보 △시스템에 기록된 모든 정보 △제3자로부터 제공받은 개인정보 등을 AI 학습 목적으로 사용하고 있다. 또한 메타는 데이터 사용에 동의를 받을 필요가 없다고 하며 AI 학습 목적의 개인정보 처리를 ‘정당한 이익’이라는 근거로 정당화하고 있으며, X는 동의도 받지 않고 법적 근거가 무엇인지 밝히지 않고 있다. 

    메타의 말대로 정당한 이익을 근거로 동의받지 않은 채 개인정보를 사용하려면 이 이익이 명백하게 정보주체의 권리보다 우선하는 경우여야 한다. 하지만 메타와 X는 이 이익을 ‘AI at Meta 개발 및 지원’, ‘기계학습 또는 인공지능 모델 학습’ 등으로 매우 포괄적으로 규정하고 있어 개인정보보호법에 따른 정당한 이익에 근거한 처리라고 인정받을 수 없다.

    또한 AI 학습은 매우 광범위하고 민감한 정보를 사용하며 휴면 상태로 있는 SNS 이용자의 개인정보까지 포함된다. 게다가 한번 AI 학습에 사용되면 이를 돌이키기 어렵고 이미 학습에 사용된 개인정보는 삭제한다고 해서 시스템에서 완전히 제거되는 것이 아니기 때문에 정보주체의 기본권에 부정적인 영향을 미친다.

    또 메타와 X가 개인정보 보호정책을 변경한 시점에 고지하지 않아 개인정보가 사용되는 것을 거부할 기회가 없었기에 사후적으로 데이터 활용을 거부하려고 해도 쉽지 않다. 옵트아웃 기능을 제공하고 있긴 하나 접근하기 어렵게 숨겨져 있고, 절차도 복잡하기 때문이다.

    해외는 어떻게 대응하고 있는가

    이 문제는 비단 한국만의 일이 아니다. 유럽의 디지털 권리 옹호 단체 NOYB는 메타의 정책 변경에 대해 유럽 개인정보보호법(GDPR) 위반이라며 11개국의 개인정보 감독기구에 신고했고, X에 대해서도 9개국에 신고한 바 있다. 

    이후 아일랜드의 데이터보호위원회(DPC)는 메타에 AI 학습 중단을 요구했으며 브라질의 개인정보 감독기구(ANPD) 역시 메타에 AI 학습을 중단하라고 명령한 이후 사용자들에게 데이터 처리 사실과 이를 거부할 권리에 대해 알리고, 데이터를 사용하기 30일 전에 미리 통지하라는 조건을 걸었다.

    영국과 캐나다의 개인정보 감독기구들도 각각 메타와 X에 대한 조사에 착수한 상태다. 반면 한국은 아직 개인정보보호위원회의 조사조차 시작되지 않았다. 위법행위가 명백한 만큼 개인정보보호위원회는 즉각 조사에 나서야 한다.

    불투명한 AI, 시민의 권리 침해해

    한편 ‘내 일상은 AI 학습용이 아니다’라는 캠페인 시작 직후, 이를 알리기 위해 한 이용자가 직접 올린 페이스북 게시물이 약 30분 뒤 삭제되는 일이 발생했다. 페이스북은 “게시물이 오해의 소지가 있는 링크나 콘텐츠로 사람들을 속여 웹사이트를 방문하거나 웹사이트에 머무르도록 하는 것 같다”며 스팸에 관한 커뮤니티 규정 위반을 삭제 사유로 밝혔다.

    이후, 이 글을 공유한 다른 이용자의 게시물과 캠페인 링크를 올린 또 다른 게시물도 스팸으로 처리됐다. 그런데 같은 글이 인스타그램에서는 삭제되지 않았다. 또한 글을 삭제당한 이용자가 이틀 뒤 페이스북에 다시 같은 글을 올렸을 때는 삭제되지 않았다. 

    캠페인 관련 게시물을 삭제당한 이용자가 메타에 재검토 요청을 했지만, 아직 페이스북 측 답변은 없는 상태다. 메타는 AI 등 기술을 이용해 대부분의 규정 위반 게시물들을 자동으로 삭제 처리한다고 밝히고 있다.

    문제는 어떤 과정을 거쳐 삭제되는지 이용자는 알 방법이 없고, 이의제기를 하기도 어렵다는 것이다. 책임 소재를 묻기도 어렵다. 이처럼 불투명한 AI 시스템은 우리의 표현의 자유까지 위협하며, 개인의 권리를 더욱 취약하게 만들 수 있다. 불투명한 AI가 가져오는 권리 침해 문제를 우리는 이미 경험하고 있다. 

    우리는 학습의 대상이 아니다

    빅테크 기업들이 ‘기술 혁신’을 이유로 법과 시민의 권리를 우회하려는 움직임이 점점 노골적으로 드러나고 있다. 기업들의 불법적인 개인정보 활용은 단순한 법률 위반을 넘어 거대 플랫폼이 개인의 권리를 침해하는 심각한 문제이다.

    이러한 문제를 막기 위해 마련된, 또 마련되어야 하는 규제들은 기술의 발전을 막는 걸림돌이 아니라 기술이 누구를 위해 어떻게 작동해야 하는지를 제시하는 최소한의 기준이다. 우리는 기술 발전의 재료가 아니라 기술을 사용하는 주체이기 때문이다. 시민들의 일상은 AI를 똑똑하게 만들기 위한 학습 자료가 아니며, 누구도 학습 대상이 되어선 안 된다.

    거대한 플랫폼 앞에서 나라는 개인의 선택지는 많지 않다. 하지만 나의 위치, 감정, 취향, 정치적 성향 등, 이 모든 정보는 내 삶의 일부이고 이를 어떻게 사용할지는 나의 선택이어야 한다. “내 일상은 AI 학습용이 아니다”라는 캠페인을 펼치는 이유이다.

    기술 혁신이라는 미명 아래 학습 대상이 되는 것을 멈추고, 나의 데이터에 대한 권리를 돌려달라고 외쳐야 한다. 인공지능 이용자의 권리와 존엄성을 플랫폼이 존중할 수 있도록 함께 목소리를 내자. 

    설동본기자
    조회수6
    2025-06-08
  • 본문내용

    "조선시대 장군이 한복 입은 흑인이고 바이킹도 흑인이었다?” 


    익히 아시겠지만 말도 안되는 가짜 정보입니다. 누가 이런 소리를 했을까요. 바로 구글 회사 인공지능(AI) 플랫폼 제미나이입니다. 제미나이는 텍스트와 이미지, 음성, 영상을 생성하는 멀티모달 기반의 AI 모델입니다.


    역사 왜곡하고 다양성에만 치우쳐


    뉴욕타임스(NYT)와 파이낸셜타임스(FT) 등 외신에 따르면 제미나이는 ‘1943년 독일군을 그리라는 프롬프트(명령어)에 백인 남성의 이미지 대신 동양인 여성, 흑인 남성 이미지를 만들어 냈습니다. 바이킹족 이미지를 요청했을 때 흑인 이미지가 나타납니다. 바이킹이나 독일군은 명백히 백인 남성입니다. 하지만 제미나이는 동양여성이나 유색인종으로 묘사해 역사적 왜곡논란을 불렀습니다.


    이에 구글은 AI 플랫폼 제미나이의 이미지 생성 기능을 일시 중단하기로 했습니다. 석달 전 일입니다. 구글 측은 인물 이미지 생성 기능에서 오류가 발견됐다. 모든 상황에 알맞게 묘사되지 않는다. 전 세계 사람들이 사용하는 상황에서 다양한 모습을 묘사하는 걸 놓치고 있다고 말했습니다. 그러면서 우리는 이러한 종류의 묘사를 즉시 개선하기 위해 노력하고 있다. 서비스를 일시 중단하고 곧 개선된 버전을 다시 출시할 것이라고 밝혔습니다.


    네티즌들은 뿔이 잔뜩 났습니다. 구글이 서비스 중단을 밝힌 X 게시글에 자신이 경험한 제미나이의 오류 사례를 공유합니다. 제미나이가 역사적 맥락을 무시하고 다양성만 지나치게 고려하고 있다는 비판이 여기저기서 제기되고 있습니다.


    AI 문제의 심각성은 여기에서 그치지 않습니다. 메타의 생성형 AI ‘이매진 위드 메타AI’도 엉뚱한 이미지를 생성해 망신을 당했습니다. 국내에선 유명인이 등장한 딥페이크 광고 피해자들이 발생했습니다. 피해 연예인들이 정부 대책을 촉구하기도 했지요. 지난해 성적 허위영상물관련 시정 요구가 2년 새 3배 이상 늘었다는 방심위 발표가 이를 잘 말해줍니다.

    정보 유출 위험에도 노출되고 있습니다. GPT를 개발한 오픈 AI가 정보수집 과정에서 이용자 정보를 유출한 사고가 있었는데, 한국인 피해자도 700여 명이 포함돼 개인정보보호위가 오픈AI에 관련 자료 제출 요구와 과태료 처분을 내렸습니다. 미국 MIT 연구진은 AI시스템이 상대방을 배신하고 허세를 부리며 인간인 척 속임수를 쓴 사례를 확인했습니다. 각국 정부에 AI의 속임수 가능성을 다루는 ‘AI안전법을 설계하라는 충고도 곁들입니다.


    크리스탈리나 게오르기에바 국제통화기금(IMF) 총재도 경고합니다. AI의 발달로 세계 노동시장이 타격을 받는다는 겁니다. 그는 지난 13“AI가 쓰나미처럼 글로벌 노동 시장을 강타하고 있다면서 “AI가 향후 2년 안에 선진국 일자리의 60%와 전 세계 일자리의 40%에 영향을 미칠 것이라고 직격했습니다.


    필요성 인정하지만 안전·인권우선돼야


    이러한 흐름속에 한국 정부가 준비하는 AI 현실은 어떨까요. 지금까지 21대 국회와 정부의 AI법안 추진은 국제사회의 흐름과 크게 대조적입니다. 적어도 AI법은 최근의 국제기준 수준에 부합하며 AI 위험으로부터 영향받을 국민의 안전과 인권을 보호할 수 있는 견고한 법이어야 하는데 돌아가는 상황은 녹록치 않습니다.


    인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안(AI법안)이 지난해 2월 국회 과방위 소위원회를 통과했습니다. 한덕수 국무총리는 현재 국회에 계류 중인 AI법안이 이용자 보호를 위한 규제의무를 담고 있다고 말합니다. 이종호 과기부 장관은 시민사회가 걱정했던 우선허용 사후규제조항이 수정안에서 삭제됐고 이 법을 제정해야 AI 범죄 처벌이 가능하다고 설명합니다. 이어 두 사람은 5월 들어 똑같이 ‘AI법안통과를 국회에 요구하고 있습니다.


    하지만 한덕수 총리와 이종호 장관의 설명과 달리 우선허용 사후규제원칙은 물론 고위험 인공지능에 대한 아무런 금지나 처벌 조항이 없다는 사실이 알려져 국가인권위로부터 개선 의견을 받은 상황에 처했습니다.


    인권위는 현행 AI법안은 AI의 위험성에 대해 실효성 없는 규정을 몇 개 두었을 뿐 모든 AI 위험 대책을 기업 자율에 맡겨두고 있음을 지적합니다. 말하자면 고위험 인공지능을 제공하거나 사용 사업자 규제는 물론 우리 사회가 허용할 수 없는 인공지능에 대한 제한도 없습니다. 나아가 이를 어길 때 처벌하는 규정도 담지 않았습니다.


    분명 AI법 필요성에 대해서는 모두가 인정합니다. 다만 향후 어떤 피해가 발생할지 예측하기 어려운 현실에서 국민 안전에 중대한 영향을 미치는 법안에 대해 신중을 기하자는 겁니다. AI업계의 이해만 앞세워 졸속으로 통과시켜선 안된다는 목소리에 귀를 기울여야 합니다.


    정리해 보겠습니다. AI법안은 국제기준에 부합하고 시민의 안전과 인권을 강력하게 보호할 수 있어야 합니다. 금지되는 인공지능과 고위험 인공지능 등에 대한 명확한 규정과 이에 대한 의무·책임·권리구제에 대한 실효성 있는 방안이 포함돼야 하지 않을까요?


    해외에서 AI규제를 산업·과학기술 관련 부처가 아닌 소비자 안전 또는 소비자 보호 부처가 하는 것처럼 우리도 이를 적극 받아들여야 합니다. 22대 국회에서 여러 상임위원회가 협력해 종합적인 검토가 이뤄져야 할 것으로 보입니다.


    국제적 협력기반 성공 자신?정보 오류·불평등 해소 핵심


    AI법은 AI 기업 육성이라는 미명하에 국민 안전과 인권을 희생하는 규제완화여서는 안됩니다. 과기부의 체면치레용을 경계합니다. 주요 국가들이 마련한 AI 법제도의 핵심은 인공지능이 시민의 안전과 인권에 미치는 위험 규제를 위해 그 제공자와 활용자에 대해 높은 책임과 의무를 부과하는 것임을 새겨야 합니다.


    ‘AI 서울 정상회의가 지난 521일부터 이틀간 열렸습니다. AI 서비스 진화와 안전에 대한 문제를 국제 공론장에서 풀어간다는 목표로 개최된 것이지요. 영국, 미국, 프랑스, 독일 등 AI 분야 정부 리더와 오픈AI, 구글, 마이크로소프트 등 글로벌 기업이 대거 참여했습니다. 과기정통부와 외교부는 국제적인 협력기반 성공에 자신있다고 합니다. AI는 잘 통제하면 생산성이 엄청나게 향상될 수 있습니다. 하지만 잘못된 정보와 불평등으로 이어질 수도 있음을 명심해야 합니다.

    설동본 총괄보도편성책임자

    참세상지기
    조회수256
    2024-07-02
  • 본문내용

    세계는 지금: 성공과 한계의 교훈

     

    VLFS 기술의 가능성을 엿볼 수 있는 대표적인 사례는 1990년대 일본의 '메가플로트(Mega-Float)' 프로젝트다. 도쿄만에 길이 1km의 부유식 활주로를 건설하고 실제 항공기 이착륙에 성공하며 기술적 가능성을 전 세계에 입증했다. 하지만 막대한 건설비와 유지보수 비용, 그리고 대형 여객기 운용에 대한 안정성 우려 등 경제성과 신뢰성의 문턱을 넘지 못하고 실제 공항 건설로 이어지지는 못했다.

     

    반면, 국토의 25%가 해수면보다 낮은 네덜란드는 수십 년 전부터 부유식 주택, 사무실 등을 운하나 강에 건설하며 물과의 공존을 모색해왔다. 이는 파도가 잔잔한 정온수역에서 VLFS 기술이 충분히 실용적이고 경제적인 대안이 될 수 있음을 보여준다.

     

    에너지 분야에서는 스코틀랜드의 '하이윈드(Hywind)' 부유식 해상풍력단지가 상업 운전에 성공하며 시장의 본격적인 개화를 알렸다. 우리나라도 울산 앞바다에 세계 최대 규모의 부유식 해상풍력단지 조성을 추진하며 글로벌 경쟁에 뛰어들고 있다.

     

    미래를 향한 항해: 넘어야 할 3가지 파도

     

    전문가들은 VLFS 기술이 상용화되기 위해선 세 가지 큰 파도를 넘어야 한다고 입을 모은다.

    첫째, **'기술의 파도'**. 구조물의 안정성을 획기적으로 높일 차세대 계류 시스템과 동요 저감 기술, 100년 이상을 버티는 내부식성 신소재 개발이 시급하다. 최근에는 AI를 활용해 설계와 유지보수를 최적화하는 '디지털 트윈' 기술이 핵심 대안으로 연구되고 있다.

     

    둘째, **'경제성의 파도'**. 높은 초기 투자비와 유지보수 비용은 민간 투자의 가장 큰 걸림돌이다. 모듈의 표준화와 대량생산을 통해 '규모의 경제'를 달성하고, 장기적인 운영 데이터를 축적해 경제성을 입증해야 한다.

     

    셋째, 가장 높은 파도인 **'제도의 파도'**. 현재 부유식 구조물은 '토지에 정착'한 건축물도, 항해하는 '선박'도 아닌 법의 사각지대에 놓여있다. 재산권 등기, 주소 부여, 인허가 절차 등 명확한 법적 지위를 부여하는 특별법 제정 없이는 관련 산업의 발전은 요원하다.

     

    해양 전문가 A씨는 "VLFS 기술은 국토의 한계를 극복하고 기후변화 시대에 새로운 기회를 창출할 '게임 체인저'가 될 잠재력이 충분하다"면서도, "기술 개발과 함께 사회적 공감대를 형성하고 법적, 제도적 기반을 마련하는 노력이 동시에 이루어질 때, 비로소 '바다 위 도시'라는 꿈이 현실의 항구에 안전하게 정박할 수 있을 것"이라고 강조했다.

    (이 기사는 제미나이 AI를 활용해 초안을 작성하고, 정화일 기자가 최종 편집·검토하고 수정, 보완, 추가 했습니다)

    정화일
    조회수1
    2025-06-17

검색

회원로그인


  • 미디어협동조합 국민TV
  • 대표 : 이상헌
  • 주소 : 서울특별시 마포구 월드컵로 37, 합정동웰빙센터 901호
  • 서울특별시 양천구 목동 738-10, B1
  • E-mail : mediacoop12@gmail.com
  • 사업자등록번호 : 105-87-87074
  • Copyright © All rights reserved.

Contact Us

(02)3144-7737

010-7209-7738