Invariant start/end intrinsics overloaded for address space
[lldb.git] / llvm / test / CodeGen / AMDGPU / promote-alloca-invariant-markers.ll
1 ; RUN: llc -march=amdgcn -mattr=+promote-alloca -verify-machineinstrs < %s | FileCheck -check-prefix=GCN %s
2
3 declare {}* @llvm.invariant.start.p0i8(i64, i8* nocapture) #0
4 declare void @llvm.invariant.end.p0i8({}*, i64, i8* nocapture) #0
5 declare i8* @llvm.invariant.group.barrier(i8*) #1
6
7 ; GCN-LABEL: {{^}}use_invariant_promotable_lds:
8 ; GCN: buffer_load_dword
9 ; GCN: ds_write_b32
10 define void @use_invariant_promotable_lds(i32 addrspace(1)* %arg) #2 {
11 bb:
12   %tmp = alloca i32, align 4
13   %tmp1 = bitcast i32* %tmp to i8*
14   %tmp2 = getelementptr inbounds i32, i32 addrspace(1)* %arg, i64 1
15   %tmp3 = load i32, i32 addrspace(1)* %tmp2
16   store i32 %tmp3, i32* %tmp
17   %tmp4 = call {}* @llvm.invariant.start.p0i8(i64 4, i8* %tmp1) #0
18   call void @llvm.invariant.end.p0i8({}* %tmp4, i64 4, i8* %tmp1) #0
19   %tmp5 = call i8* @llvm.invariant.group.barrier(i8* %tmp1) #1
20   ret void
21 }
22
23 attributes #0 = { argmemonly nounwind }
24 attributes #1 = { nounwind readnone }
25 attributes #2 = { nounwind }