/* bitops.S: Sparc64 atomic bit operations. * * Copyright (C) 2000, 2007 David S. Miller (davem@davemloft.net) */ #include #include #include .text ENTRY(test_and_set_bit) /* %o0=nr, %o1=addr */ BACKOFF_SETUP(%o3) srlx %o0, 6, %g1 mov 1, %o2 sllx %g1, 3, %g3 and %o0, 63, %g2 sllx %o2, %g2, %o2 add %o1, %g3, %o1 1: ldx [%o1], %g7 or %g7, %o2, %g1 casx [%o1], %g7, %g1 cmp %g7, %g1 bne,pn %xcc, BACKOFF_LABEL(2f, 1b) and %g7, %o2, %g2 clr %o0 movrne %g2, 1, %o0 retl nop 2: BACKOFF_SPIN(%o3, %o4, 1b) ENDPROC(test_and_set_bit) ENTRY(test_and_clear_bit) /* %o0=nr, %o1=addr */ BACKOFF_SETUP(%o3) srlx %o0, 6, %g1 mov 1, %o2 sllx %g1, 3, %g3 and %o0, 63, %g2 sllx %o2, %g2, %o2 add %o1, %g3, %o1 1: ldx [%o1], %g7 andn %g7, %o2, %g1 casx [%o1], %g7, %g1 cmp %g7, %g1 bne,pn %xcc, BACKOFF_LABEL(2f, 1b) and %g7, %o2, %g2 clr %o0 movrne %g2, 1, %o0 retl nop 2: BACKOFF_SPIN(%o3, %o4, 1b) ENDPROC(test_and_clear_bit) ENTRY(test_and_change_bit) /* %o0=nr, %o1=addr */ BACKOFF_SETUP(%o3) srlx %o0, 6, %g1 mov 1, %o2 sllx %g1, 3, %g3 and %o0, 63, %g2 sllx %o2, %g2, %o2 add %o1, %g3, %o1 1: ldx [%o1], %g7 xor %g7, %o2, %g1 casx [%o1], %g7, %g1 cmp %g7, %g1 bne,pn %xcc, BACKOFF_LABEL(2f, 1b) and %g7, %o2, %g2 clr %o0 movrne %g2, 1, %o0 retl nop 2: BACKOFF_SPIN(%o3, %o4, 1b) ENDPROC(test_and_change_bit) ENTRY(set_bit) /* %o0=nr, %o1=addr */ BACKOFF_SETUP(%o3) srlx %o0, 6, %g1 mov 1, %o2 sllx %g1, 3, %g3 and %o0, 63, %g2 sllx %o2, %g2, %o2 add %o1, %g3, %o1 1: ldx [%o1], %g7 or %g7, %o2, %g1 casx [%o1], %g7, %g1 cmp %g7, %g1 bne,pn %xcc, BACKOFF_LABEL(2f, 1b) nop retl nop 2: BACKOFF_SPIN(%o3, %o4, 1b) ENDPROC(set_bit) ENTRY(clear_bit) /* %o0=nr, %o1=addr */ BACKOFF_SETUP(%o3) srlx %o0, 6, %g1 mov 1, %o2 sllx %g1, 3, %g3 and %o0, 63, %g2 sllx %o2, %g2, %o2 add %o1, %g3, %o1 1: ldx [%o1], %g7 andn %g7, %o2, %g1 casx [%o1], %g7, %g1 cmp %g7, %g1 bne,pn %xcc, BACKOFF_LABEL(2f, 1b) nop retl nop 2: BACKOFF_SPIN(%o3, %o4, 1b) ENDPROC(clear_bit) ENTRY(change_bit) /* %o0=nr, %o1=addr */ BACKOFF_SETUP(%o3) srlx %o0, 6, %g1 mov 1, %o2 sllx %g1, 3, %g3 and %o0, 63, %g2 sllx %o2, %g2, %o2 add %o1, %g3, %o1 1: ldx [%o1], %g7 xor %g7, %o2, %g1 casx [%o1], %g7, %g1 cmp %g7, %g1 bne,pn %xcc, BACKOFF_LABEL(2f, 1b) nop retl nop 2: BACKOFF_SPIN(%o3, %o4, 1b) ENDPROC(change_bit)