百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 博客教程 > 正文

2023-03-21:音视频解混合(demuxer)为MP3和H264,用go语言编写

connygpt 2024-12-27 16:05 3 浏览

2023-03-21:音视频解混合(demuxer)为MP3和H264,用go语言编写。


答案2023-03-21:


# 步骤1:安装github.com/moonfdd/ffmpeg-go

go get -u github.com/moonfdd/ffmpeg-go

# 步骤2:导入所需的库


接下来,我们需要导入所需的库。这些库包括fmt、os、exec以及FFmpeg库中的libavcodec、libavdevice、libavformat和libavutil。在本教程中,我们还将使用moonfdd/ffmpeg-go库,该库提供了一些便捷的函数和类型定义,可帮助我们更轻松地使用FFmpeg库。



import (
"fmt"
"os"
"os/exec"


"github.com/moonfdd/ffmpeg-go/ffcommon"
"github.com/moonfdd/ffmpeg-go/libavcodec"
"github.com/moonfdd/ffmpeg-go/libavdevice"
"github.com/moonfdd/ffmpeg-go/libavformat"
"github.com/moonfdd/ffmpeg-go/libavutil"
)

# 步骤3:设置FFmpeg库路径


在使用FFmpeg库之前,我们需要设置FFmpeg库的路径。您可以通过设置环境变量来实现这一点,也可以直接调用FFmpeg库的SetXxxPath函数进行设置。

// 设置环境变量
os.Setenv("Path", os.Getenv("Path")+";./lib")


// 设置FFmpeg库路径
ffcommon.SetAvutilPath("./lib/avutil-56.dll")
ffcommon.SetAvcodecPath("./lib/avcodec-58.dll")
ffcommon.SetAvdevicePath("./lib/avdevice-58.dll")
ffcommon.SetAvfilterPath("./lib/avfilter-56.dll")
ffcommon.SetAvformatPath("./lib/avformat-58.dll")
ffcommon.SetAvpostprocPath("./lib/postproc-55.dll")
ffcommon.SetAvswresamplePath("./lib/swresample-3.dll")
ffcommon.SetAvswscalePath("./lib/swscale-5.dll")

# 步骤4:定义必要的变量


在使用FFmpeg库之前,我们需要定义一些必要的变量。这些变量包括输入文件名、输出音频文件名、输出视频文件名、输入格式上下文、输出音频格式上下文、输出视频格式上下文、AVPacket等。在本教程中,我们还定义了用于保存视频索引和音频索引的变量。

var ifmtCtx, ofmtCtxAudio, ofmtCtxVideo *libavformat.AVFormatContext
var packet libavcodec.AVPacket
var videoIndex ffcommon.FInt = -1
var audioIndex ffcommon.FInt = -1
var ret ffcommon.FInt = 0
inFileName := "./resources/big_buck_bunny.mp4"
outFilenameAudio := "./out/a22.aac"
outFilenameVideo := "./out/a22.h264"

# 步骤5:注册设备


在使用FFmpeg库之前,我们需要先注册设备。您可以使用libavdevice.AvdeviceRegisterAll()函数来注册所有支持的设备。

libavdevice.AvdeviceRegisterAll()

# 步骤6:打开输入流


在从音视频文件中分离出音频和视频之前,我们需要打开音视频文件的输入流。您可以使用libavformat.AvformatOpenInput函数来打开输入流,并使用ifmtCtx参数保存输入流的上下文。

if libavformat.AvformatOpenInput(&ifmtCtx, inFileName, nil, nil) < 0 {
fmt.Printf("Could not open input file '%s'\n", inFileName)
return
}
defer ifmtCtx.AvformatCloseInput()

# 步骤7:读取媒体信息


打开输入流后,我们需要读取音视频文件的媒体信息。您可以使用libavformat.AvformatFindStreamInfo函数来读取媒体信息,并使用libavutil.AvDumpFormat函数将媒体信息输出到控制台。

if ifmtCtx.AvformatFindStreamInfo(nil) < 0 {
fmt.Println("Could not find stream information")
return
}
libavutil.AvDumpFormat(ifmtCtx, 0, inFileName, 0)

# 步骤8:查找音频和视频流


在读取媒体信息后,我们需要查找音频和视频流。您可以使用libavformat.AvformatFindStreamInfo函数来查找音频和视频流,并使用videoIndex和audioIndex变量保存视频流和音频流的索引。

for i := 0; i < int(ifmtCtx.NbStreams()); i++ {
codecParams := ifmtCtx.Streams()[i].CodecParameters()
codecType := codecParams.AvCodecGetType()


switch codecType {
case libavutil.AVMEDIA_TYPE_VIDEO:
    if videoIndex == -1 {
        videoIndex = ffcommon.FInt(i)
    }
case libavutil.AVMEDIA_TYPE_AUDIO:
    if audioIndex == -1 {
        audioIndex = ffcommon.FInt(i)
    }
}
}
if videoIndex == -1 || audioIndex == -1 {
    fmt.Println("Could not find video or audio stream")
    return
}

# 步骤9:打开输出流


在查找音频和视频流后,我们需要打开输出流,以便将分离出的音频和视频写入文件。您可以使用libavformat.AvformatAllocOutputContext2函数创建输出格式上下文,并使用ofmtCtxAudio和ofmtCtxVideo变量保存输出格式上下文。

// 打开输出音频流
if ofmtCtxAudio = libavformat.AvformatAllocOutputContext2(nil, nil, "", outFilenameAudio); ofmtCtxAudio == nil {
    fmt.Printf("could not create output context for '%s'\n", outFilenameAudio)
    return
}


// 打开输出视频流
if ofmtCtxVideo = libavformat.AvformatAllocOutputContext2(nil, nil, "h264", outFilenameVideo); ofmtCtxVideo == nil {
    fmt.Printf("could not create output context for '%s'\n", outFilenameVideo)
    return
}

# 步骤10:写入文件头


打开输出流后,我们需要写入文件头。您可以使用libavformat.AvformatWriteHeader函数来写入文件头。

// 写入音频文件头
if (ofmtCtxAudio.Oformat().Flags() & libavformat.AVFMT_NOFILE) == 0 {
    if ret = ofmtCtxAudio.AvioOpen(nil, libavformat.AVIO_FLAG_WRITE); ret < 0 {
        fmt.Printf("could not open output file '%s'\n", outFilenameAudio)
        return
    }
    defer ofmtCtxAudio.AvioClose()
}
if ret = ofmtCtxAudio.AvformatWriteHeader(nil); ret < 0 {
    fmt.Println("Could not write output file header")
    return
}


// 写入视频文件头
if (ofmtCtxVideo.Oformat().Flags() & libavformat.AVFMT_NOFILE) == 0 {
    if ret = ofmtCtxVideo.AvioOpen(nil, libavformat.AVIO_FLAG_WRITE); ret < 0 {
        fmt.Printf("could not open output file '%s'\n", outFilenameVideo)
        return
    }
    defer ofmtCtxVideo.AvioClose()
}
if ret = ofmtCtxVideo.AvformatWriteHeader(nil); ret < 0 {
    fmt.Println("Could not write output file header")
    return
}

# 步骤11:分离音频和视频


写入文件头后,我们可以开始分离音频和视频了。您可以使用libavformat.AvReadFrame函数读取音视频帧,并根据音频或视频流的索引将音频帧写入音频文件,将视频帧写入视频文件。

for {
if ret = ifmtCtx.AvReadFrame(&packet); ret <0 {
break
}
defer packet.AvPacketUnref()


if packet.StreamIndex() == audioIndex {
    // 写入音频流
    if ret = ofmtCtxAudio.AvInterleavedWriteFrame(&packet); ret < 0 {
        fmt.Printf("error while writing audio frame: %v\n", ret)
        return
    }
} else if packet.StreamIndex() == videoIndex {
    // 写入视频流
    if ret = ofmtCtxVideo.AvInterleavedWriteFrame(&packet); ret < 0 {
        fmt.Printf("error while writing video frame: %v\n", ret)
        return
    }
}
}

# 步骤12:写入文件尾


完成音视频分离后,我们需要写入文件尾。您可以使用libavformat.AvWriteTrailer函数来写入文件尾。

if ret = ofmtCtxAudio.AvWriteTrailer(); ret < 0 {
    fmt.Println("Could not write output file trailer")
    return
}


// 写入视频文件尾
if ret = ofmtCtxVideo.AvWriteTrailer(); ret < 0 {
    fmt.Println("Could not write output file trailer")
    return
}

# 完整代码

// https://feater.top/ffmpeg/ffmpeg-demuxer-video-to-mp3-and-h264
package main


import (
  "fmt"
  "os"
  "os/exec"


  "github.com/moonfdd/ffmpeg-go/ffcommon"
  "github.com/moonfdd/ffmpeg-go/libavcodec"
  "github.com/moonfdd/ffmpeg-go/libavdevice"
  "github.com/moonfdd/ffmpeg-go/libavformat"
  "github.com/moonfdd/ffmpeg-go/libavutil"
)


func open_codec_context(streamIndex *ffcommon.FInt, ofmtCtx **libavformat.AVFormatContext, ifmtCtx *libavformat.AVFormatContext, type0 libavutil.AVMediaType) ffcommon.FInt {
  var outStream, inStream *libavformat.AVStream
  // int ret = -1, index = -1;
  var ret ffcommon.FInt = -1
  var index ffcommon.FInt = -1


  index = ifmtCtx.AvFindBestStream(type0, -1, -1, nil, 0)
  if index < 0 {
    fmt.Printf("can't find %s stream in input file\n", libavutil.AvGetMediaTypeString(type0))
    return ret
  }


  inStream = ifmtCtx.GetStream(uint32(index))


  outStream = (*ofmtCtx).AvformatNewStream(nil)
  if outStream == nil {
    fmt.Printf("failed to allocate output stream\n")
    return ret
  }


  ret = libavcodec.AvcodecParametersCopy(outStream.Codecpar, inStream.Codecpar)
  if ret < 0 {
    fmt.Printf("failed to copy codec parametes\n")
    return ret
  }


  outStream.Codecpar.CodecTag = 0


  *streamIndex = index


  return 0
}


func main() {
  os.Setenv("Path", os.Getenv("Path")+";./lib")
  ffcommon.SetAvutilPath("./lib/avutil-56.dll")
  ffcommon.SetAvcodecPath("./lib/avcodec-58.dll")
  ffcommon.SetAvdevicePath("./lib/avdevice-58.dll")
  ffcommon.SetAvfilterPath("./lib/avfilter-56.dll")
  ffcommon.SetAvformatPath("./lib/avformat-58.dll")
  ffcommon.SetAvpostprocPath("./lib/postproc-55.dll")
  ffcommon.SetAvswresamplePath("./lib/swresample-3.dll")
  ffcommon.SetAvswscalePath("./lib/swscale-5.dll")


  genDir := "./out"
  _, err := os.Stat(genDir)
  if err != nil {
    if os.IsNotExist(err) {
      os.Mkdir(genDir, 0777) //  Everyone can read write and execute
    }
  }


  inFileName := "./resources/big_buck_bunny.mp4"
  outFilenameAudio := "./out/a22.aac"
  outFilenameVideo := "./out/a22.h264"


  var ifmtCtx, ofmtCtxAudio, ofmtCtxVideo *libavformat.AVFormatContext
  var packet libavcodec.AVPacket


  var videoIndex ffcommon.FInt = -1
  var audioIndex ffcommon.FInt = -1
  var ret ffcommon.FInt = 0


  //注册设备
  libavdevice.AvdeviceRegisterAll()


  for {
    //打开输入流
    if libavformat.AvformatOpenInput(&ifmtCtx, inFileName, nil, nil) < 0 {
      fmt.Printf("Cannot open input file.\n")
      break
    }


    //获取流信息
    if ifmtCtx.AvformatFindStreamInfo(nil) < 0 {
      fmt.Printf("Cannot find stream info in input file.\n")
      break
    }


    //创建输出上下文:视频
    libavformat.AvformatAllocOutputContext2(&ofmtCtxVideo, nil, "", outFilenameVideo)
    if ofmtCtxVideo == nil {
      fmt.Printf("can't create video output context")
      break
    }


    //创建输出上下文:音频
    libavformat.AvformatAllocOutputContext2(&ofmtCtxAudio, nil, "", outFilenameAudio)
    if ofmtCtxAudio == nil {
      fmt.Printf("can't create audio output context")
      break
    }


    ret = open_codec_context(&videoIndex, &ofmtCtxVideo, ifmtCtx, libavutil.AVMEDIA_TYPE_VIDEO)
    if ret < 0 {
      fmt.Printf("can't decode video context\n")
      break
    }


    ret = open_codec_context(&audioIndex, &ofmtCtxAudio, ifmtCtx, libavutil.AVMEDIA_TYPE_AUDIO)
    if ret < 0 {
      fmt.Printf("can't decode video context\n")
      break
    }


    //Dump Format------------------
    fmt.Printf("\n==============Input Video=============\n")
    ifmtCtx.AvDumpFormat(0, inFileName, 0)
    fmt.Printf("\n==============Output Video============\n")
    ofmtCtxVideo.AvDumpFormat(0, outFilenameVideo, 1)
    fmt.Printf("\n==============Output Audio============\n")
    ofmtCtxAudio.AvDumpFormat(0, outFilenameAudio, 1)
    fmt.Printf("\n======================================\n")


    //打开输出文件:视频
    if ofmtCtxVideo.Oformat.Flags&libavformat.AVFMT_NOFILE == 0 {
      if libavformat.AvioOpen(&ofmtCtxVideo.Pb, outFilenameVideo, libavformat.AVIO_FLAG_WRITE) < 0 {
        fmt.Printf("can't open output file: %s\n", outFilenameVideo)
        break
      }
    }


    //打开输出文件:音频
    if ofmtCtxAudio.Oformat.Flags&libavformat.AVFMT_NOFILE == 0 {
      if libavformat.AvioOpen(&ofmtCtxAudio.Pb, outFilenameAudio, libavformat.AVIO_FLAG_WRITE) < 0 {
        fmt.Printf("can't open output file: %s\n", outFilenameVideo)
        break
      }
    }


    //写文件头
    if ofmtCtxVideo.AvformatWriteHeader(nil) < 0 {
      fmt.Printf("Error occurred when opening video output file\n")
      break
    }


    if ofmtCtxAudio.AvformatWriteHeader(nil) < 0 {
      fmt.Printf("Error occurred when opening audio output file\n")
      break
    }


    for {
      var ofmtCtx *libavformat.AVFormatContext
      var inStream, outStream *libavformat.AVStream


      if ifmtCtx.AvReadFrame(&packet) < 0 {
        break
      }


      inStream = ifmtCtx.GetStream(packet.StreamIndex)


      if packet.StreamIndex == uint32(videoIndex) {
        outStream = ofmtCtxVideo.GetStream(0)
        ofmtCtx = ofmtCtxVideo
      } else if packet.StreamIndex == uint32(audioIndex) {
        outStream = ofmtCtxAudio.GetStream(0)
        ofmtCtx = ofmtCtxAudio
      } else {
        continue
      }


      //convert PTS/DTS
      packet.Pts = libavutil.AvRescaleQRnd(packet.Pts, inStream.TimeBase, outStream.TimeBase,
        libavutil.AV_ROUND_NEAR_INF|libavutil.AV_ROUND_PASS_MINMAX)
      packet.Dts = libavutil.AvRescaleQRnd(packet.Dts, inStream.TimeBase, outStream.TimeBase,
        libavutil.AV_ROUND_NEAR_INF|libavutil.AV_ROUND_PASS_MINMAX)
      packet.Duration = libavutil.AvRescaleQ(packet.Duration, inStream.TimeBase, outStream.TimeBase)
      packet.Pos = -1
      packet.StreamIndex = 0


      //write
      if ofmtCtx.AvInterleavedWriteFrame(&packet) < 0 {
        fmt.Printf("Error muxing packet\n")
        break
      }


      packet.AvPacketUnref()
    }


    //write file trailer
    ofmtCtxVideo.AvWriteTrailer()
    ofmtCtxAudio.AvWriteTrailer()


    break
  }


  libavformat.AvformatCloseInput(&ifmtCtx)


  if ofmtCtxVideo != nil && (ofmtCtxVideo.Oformat.Flags&libavformat.AVFMT_NOFILE) == 0 {
    ofmtCtxVideo.Pb.AvioClose()
  }


  if ofmtCtxAudio != nil && (ofmtCtxAudio.Oformat.Flags&libavformat.AVFMT_NOFILE) == 0 {
    ofmtCtxAudio.Pb.AvioClose()
  }


  ofmtCtxVideo.AvformatFreeContext()
  ofmtCtxAudio.AvformatFreeContext()
  fmt.Println("-----------------------------------------")
  go func() {
    _, err = exec.Command("./lib/ffplay.exe", outFilenameAudio).Output()
    if err != nil {
      fmt.Println("play err = ", err)
    }
  }()
  _, err = exec.Command("./lib/ffplay.exe", outFilenameVideo).Output()
  if err != nil {
    fmt.Println("play err = ", err)
  }
}

# 执行结果

执行命令:

go run ./examples/a22.video_demuxer_mp42h264mp3/main.go


相关推荐

vue3 组件初始化流程

学习完成响应式系统后,咋们来看看vue3组件的初始化流程既然是看vue组件的初始化流程,咋们先来创建基本的代码,跑跑流程(在app.vue中写入以下内容,来跑流程)import{h,ref}...

Context的典型使用场景

获取应用文件路径基类Context提供了获取应用文件路径的能力,ApplicationContext、AbilityStageContext、UIAbilityContext和ExtensionCon...

web技术分享|AudioContext 实现音频可视化

要实现音频可视化,实现一些炫酷的效果需要借助WebAudioAPI提供的一些方法AudioContext。AudioContext接口表示由链接在一起的音频模块构建的音频处理图,每个模块由一个...

2023-03-21:音视频解混合(demuxer)为MP3和H264,用go语言编写

2023-03-21:音视频解混合(demuxer)为MP3和H264,用go语言编写。答案2023-03-21:#步骤1:安装github.com/moonfdd/ffmpeg-gogoget...

如何在微信小程序中加入音频或视频?

要在微信小程序中加入音频或视频,可以使用以下步骤:1.在小程序页面中引入wx.createInnerAudioContext()或wx.createVideoContext()方法。2.创建音频或...

使用RKE的方式快速部署K8S集群

RKE是一款经过CNCF认证的开源Kubernetes发行版,可以在Docker容器内运行。它通过删除大部分主机依赖项,并为部署、升级和回滚、节点扩容提供一个稳定的路径,从而解决了Kubernetes...

Rancher(k8s)的持久存储卷Volumes(PV/PVC)的使用方法

1.介绍1.1介绍在上一节课里面福哥带着大家学会了使用k8s的负载均衡LoadBalancing(LB)发布集群内部的服务的方法,今天我们要讲讲k8s的持久存储卷Volumes(PVC)的使用方...

基于 Sealos 的镜像构建能力,快速部署自定义 k8s 集群

Sealos是一个快速构建高可用k8s集群的命令行工具,该工具部署时会在第一个k8smaster节点部署registry服务(sealos.hub),该域名通过hosts解析到第一...

Docker、Containerd、RunC分别是什么

什么是RunC上一遍文章《真正运行容器的工具:深入了解runc和OCI规范》已经讲清楚了Runc与OCI。这里再讲解一下概念。Docker、Google、CoreOS和其他供应商创建了开放容...

偷偷爆料下Docker学习,看这一篇就够了!十分推荐!!

一.什么是容器?生活中常将一个能用来承载物料的装置称之为容器,比如碗、盘子,杯子等,容器内可放入各种各样的物料,每一个容器都相互独立,不相互干扰。而我们计算机领域所说的容器通常是指一个包含了完整的运...

Docker网络优化方案,你认为哪种将引爆未来?

ICT架构师技术交流微信号分析和交流ICT行业最前沿技术,分享更多存储、服务器、数据中心、网络、软件定义和虚拟化等相关知识,旨在知识交流、开放共享和共同进步。上一篇文章Docker原生网络和实现原...

Docker容器和存储系统 云舒网络

江松:1986开始接触到苹果电脑,不是MacBook,是APPLEII.用Basic编程序。1999年去欧洲爱尔兰做存储,从并行SCSI协议开始做,到FC1G,4G,8G。2009年回国后进...

基于docker的跨主机WEB容器管理

前言由于我们的一部分服务器,分布在不同的公共网络环境。而且,这些服务器程序,发布都使用了docker,但并没有使用k8s这样的工具。处于离散的管理状态。也考虑过rancher这样的工具,但对于我们来说...

Kubernetes(k8s)docker 和 Containerd 区别

Kubernetes(k8s)、Docker和Containerd都是容器技术领域的重要工具,但它们各自有不同的角色和功能。Docker:Docker是一个开源的容器化平台,它允许开发者将应...

从 Docker 快刀到 K8s 剑法:程序员的云原生武功秘籍

前言在当今云计算的浪潮中,Docker和Kubernetes(K8s)已成为每位程序员必备的核心工具。Docker,如同一把锐利的快刀,能够迅速、简洁地将应用及其依赖封装成镜像,实现便捷的打包与发...