私は行くのは初めてですが、以前は並行性で働いていました。すべてのゴルーチン間で同じデータを含まない複数のゴルーチン間でスライスを共有する問題が発生しています。mutexも使用して、スライスを変更するときに構造体をロックしますが、効果がないようです。コードを添付しましたが、何が問題なのか知りたいのですが、助けてくれてありがとう!
type State struct {
waiting int32
processing int32
completed int32
}
type Scheduler struct {
sync.Mutex
items chan interface{}
backPressure []interface{}
capacity int
canceler context.CancelFunc
state State
}
func NewScheduler(capacity int, handler func(interface {}) (interface{}, error)) Scheduler {
ctx, cancel := context.WithCancel(context.Background())
state := State{}
atomic.StoreInt32(&state.waiting, 0)
atomic.StoreInt32(&state.processing, 0)
atomic.StoreInt32(&state.completed, 0)
scheduler := Scheduler{
items: make(chan interface{}, capacity),
backPressure: make([]interface{}, 0),
capacity: capacity,
canceler: cancel,
state: state,
}
scheduler.initializeWorkers(ctx, handler)
return scheduler
}
func (s *Scheduler) initializeWorkers(ctx context.Context, handler func(interface {}) (interface{}, error)) {
for i := 0; i < 5; i++ {
go s.newWorker(ctx, handler)
}
}
func (s *Scheduler) newWorker(ctx context.Context, handler func(interface {}) (interface{}, error)) {
backoff := 0
for {
select {
case <-ctx.Done():
return
case job := <- s.items:
atomic.AddInt32(&s.state.waiting, -1)
atomic.AddInt32(&s.state.processing, 1)
job, _ = handler(job)
backoff = 0
atomic.AddInt32(&s.state.processing, -1)
atomic.AddInt32(&s.state.completed, 1)
default:
backoff += 1
s.CheckBackPressure()
time.Sleep(time.Duration(backoff * 10) * time.Millisecond)
}
}
}
func (s *Scheduler) AddItem(item interface{}) {
atomic.AddInt32(&s.state.waiting, 1)
if len(s.items) < s.capacity {
select {
case s.items <- item:
return
}
}
s.Lock()
defer s.Unlock()
s.backPressure = append(s.backPressure, item)
fmt.Printf("new backpressure len %v \n", len(s.backPressure))
return
}
func (s *Scheduler) Process() {
var wg sync.WaitGroup
wg.Add(1)
go func() {
defer wg.Done()
for {
if atomic.LoadInt32(&s.state.waiting) == 0 && atomic.LoadInt32(&s.state.processing) == 0 {
return
}
runtime.Gosched()
}
}()
wg.Wait()
}
func (s *Scheduler) CheckBackPressure() {
s.Lock()
defer s.Unlock()
if len(s.backPressure) == 0 || s.capacity <= len(s.items) {
fmt.Printf("backpressure = %d :: len = %d cap = %d \n", len(s.backPressure), len(s.items), s.capacity)
return
}
fmt.Printf("releasing backpressure \n")
job, tmp := s.backPressure[0], s.backPressure[1:]
s.backPressure = tmp
s.items <- job
return
}
func (s *Scheduler) Stop() {
s.canceler()
}
これは、機能をテストするために使用しているコードです。
type Job struct {
Value int
}
func TestSchedulerExceedingCapacity(t *testing.T) {
handler := func (ptr interface{}) (interface{}, error) {
job, ok := (ptr).(*Job)
if ok != true {
return nil, errors.New("failed to convert job")
}
// simulate work
time.Sleep(50 * time.Millisecond)
return job, nil
}
scheduler := NewScheduler(5, handler)
for i := 0; i < 25; i++ {
scheduler.AddItem(&(Job { Value: i }))
}
fmt.Printf("PROCESSING\n")
scheduler.Process()
fmt.Printf("FINISHED\n")
}
バックプレッシャーを保持するスライスを更新すると、new backpressure len 1
1〜16の印刷で正しく更新されたことが示されているようです。
しかし、ワーカーからのバックプレッシャーを確認すると、バックプレッシャースライスが空であることがわかります。backpressure = 0 :: len = 0 cap = 5
。
また、「バックプレッシャーの解放」もstdoutに出力されません。
ここにいくつかの追加出力があります...
=== RUN TestSchedulerExceedingCapacity
new backpressure len 1
new backpressure len 2
new backpressure len 3
new backpressure len 4
new backpressure len 5
new backpressure len 6
new backpressure len 7
new backpressure len 8
backpressure = 0 :: len = 0 cap = 5
new backpressure len 9
new backpressure len 10
new backpressure len 11
new backpressure len 12
new backpressure len 13
new backpressure len 14
new backpressure len 15
new backpressure len 16
PROCESSING
backpressure = 0 :: len = 0 cap = 5
backpressure = 0 :: len = 0 cap = 5
backpressure = 0 :: len = 0 cap = 5
...
テストを終了しないと、無期限に出力されます backpressure = 0 :: len = 0 cap = 5
変更を正しく同期していないと思いますが、本当に洞察をいただければ幸いです。
さて、質問を投稿したら、もちろんこれを理解することができました...
データレース検出機能-race
を有効にするオプションを使用してテストを実行するよう提案された場所を見つけました。すぐにエラーが発生し、問題のデバッグが容易になりました。
問題はNewScheduler
、新しいスケジューラのポインタではなく、値を返すことに関連していたことがわかりました。その関数を次のコードに変更して、問題を修正しました。
func NewScheduler(capacity int, handler func(interface {}) (interface{}, error)) *Scheduler {
ctx, cancel := context.WithCancel(context.Background())
state := State{}
atomic.StoreInt32(&state.waiting, 0)
atomic.StoreInt32(&state.processing, 0)
atomic.StoreInt32(&state.completed, 0)
atomic.StoreInt32(&state.errors, 0)
scheduler := Scheduler{
items: make(chan interface{}, capacity),
backPressure: make([]interface{}, 0),
capacity: capacity,
canceler: cancel,
state: state,
}
scheduler.initializeWorkers(ctx, handler)
return &scheduler
}
この記事はインターネットから収集されたものであり、転載の際にはソースを示してください。
侵害の場合は、連絡してください[email protected]
コメントを追加