AI技術を使って人物の動画や音声を別の人物に合成、本人が話したり、動いたりしているように見えるニセ映像などを「ディープフェイク」という。韓国ではこの技術が悪用され、性被害が続出! 国が規制に乗り出す...